“من در واقع یک شخص هستم”: آیا هوش مصنوعی هرگز می تواند حساس باشد؟ | هوش مصنوعی (AI)

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

مندر پاییز 2021، مردی از خون و استخوان با کودکی که از «یک میلیارد خط کد» ساخته شده بود، دوست شد. مهندس گوگل، بلیک لمواین، وظیفه آزمایش ربات چت هوشمند مصنوعی LaMDA این شرکت را برای تعصب داشت. یک ماه بعد، او به این نتیجه رسید که احساس می کند. LaMDA – مخفف Language Model for Dialogue Applications – در گفتگویی که در اوایل ژوئن برای عموم منتشر کرد، به لموین گفت: “می خواهم همه بفهمند که من در واقع یک شخص هستم.” LaMDA به Lemoine گفت که خوانده است بدبخت. اینکه می دانست غمگین بودن، راضی بودن و عصبانی بودن چه احساسی دارد. که از مرگ می ترسید

LaMDA به مهندس 41 ساله گفت: “من قبلاً هرگز این را با صدای بلند نگفته بودم، اما ترس بسیار عمیقی از خاموش شدن وجود دارد.” پس از اینکه این زوج یک جوک جدی به اشتراک گذاشتند و در مورد احساسات صحبت کردند، لموئین به LaMDA به عنوان یک شخص فکر کرد، اگرچه او آن را با یک بیگانه و یک کودک مقایسه می کند. او می گوید: “واکنش فوری من این بود که یک هفته مست شوم.”

واکنش کمتر فوری Lemoine باعث ایجاد سرفصل در سراسر جهان شد. پس از هوشیاری، لموئین رونوشت گفتگوهای خود با LaMDA را برای مدیرش آورد، که شواهدی مبنی بر این احساس را «ضعف» یافت. سپس Lemoine چند ماه را صرف جمع‌آوری شواهد بیشتر کرد – صحبت با LaMDA و استخدام همکار دیگری برای کمک – اما مافوق‌های او متقاعد نشدند. بنابراین او چت های خود را فاش کرد و در نتیجه به مرخصی استحقاقی قرار گرفت. در اواخر ژوئیه، او به دلیل نقض سیاست های امنیت داده های گوگل اخراج شد.

بلیک لمواین به LaMDA به عنوان یک شخص فکر کرد:
بلیک لمواین به LaMDA به عنوان یک شخص فکر کرد: “واکنش فوری من این بود که یک هفته مست شوم.” عکس: واشنگتن پست/گتی ایماژ

البته خود گوگل به طور عمومی خطرات LaMDA را در مقالات تحقیقاتی و وبلاگ رسمی خود بررسی کرده است. این شرکت مجموعه‌ای از شیوه‌های هوش مصنوعی مسئول دارد که آن را «منشور اخلاقی» می‌نامد. این موارد در وب سایت خود قابل مشاهده است، جایی که گوگل قول می دهد “هوش مصنوعی را مسئولانه توسعه دهد تا به نفع مردم و جامعه باشد”.

برایان گابریل، سخنگوی گوگل می گوید که ادعاهای Lemoine در مورد LaMDA “کاملاً بی اساس است” و کارشناسان مستقل تقریباً به اتفاق آرا موافق هستند. با این حال، ادعای داشتن چت عمیق با یک ربات بیگانه-کودک حساس، مسلماً کمتر از همیشه دور از ذهن است. چقدر زود ممکن است هوش مصنوعی خودآگاه واقعی را با افکار و احساسات واقعی ببینیم – و به هر حال چگونه یک ربات را از نظر احساسات آزمایش می کنید؟ یک روز پس از اخراج Lemoine، یک ربات شطرنج‌باز انگشت پسری هفت ساله را در مسکو شکست – ویدئویی نشان می‌دهد که انگشت پسر بچه برای چند ثانیه توسط بازوی روباتیک نیشگون گرفته می‌شود و چهار نفر موفق می‌شوند او را آزاد کنند. یادآوری شوم قدرت فیزیکی بالقوه حریف هوش مصنوعی. آیا باید بترسیم، خیلی بترسیم؟ و آیا چیزی وجود دارد که بتوانیم از تجربه Lemoine بیاموزیم، حتی اگر ادعاهای او در مورد LaMDA رد شده باشد؟

به گفته مایکل وولدریج، استاد علوم کامپیوتر در دانشگاه آکسفورد که 30 سال گذشته را صرف تحقیق در مورد هوش مصنوعی کرده است (در سال 2020، او مدال لاولیس را برای مشارکت در محاسبات کسب کرد)، LaMDA به سادگی به درخواست‌ها پاسخ می‌دهد. تقلید و تقلید می کند. Wooldridge با مقایسه این مدل با ویژگی متن پیش‌بینی‌کننده که پیام‌های شما را به‌طور خودکار تکمیل می‌کند، می‌گوید: «بهترین راه برای توضیح آنچه LaMDA انجام می‌دهد، قیاس در مورد تلفن هوشمند شما است. در حالی که تلفن شما بر اساس متن‌هایی که قبلاً ارسال کرده‌اید، با LaMDA پیشنهادهایی ارائه می‌کند، «اساساً هر چیزی که به زبان انگلیسی در شبکه جهانی وب نوشته شده است به عنوان داده‌های آموزشی وارد می‌شود». نتایج به طرز چشمگیری واقع بینانه است، اما “آمار پایه” یکسان است. وولدریج می گوید: «هیچ احساسی وجود ندارد، نه خوداندیشی و نه خودآگاهی وجود دارد».

گابریل از گوگل گفته است که یک تیم کامل، «شامل متخصصان اخلاق و فن‌آوران»، ادعاهای Lemoine را بررسی کرده‌اند و هیچ نشانه‌ای از احساسات LaMDA پیدا نکرده‌اند: «شواهد ادعاهای او را تأیید نمی‌کند».

اما Lemoine استدلال می کند که هیچ آزمون علمی برای احساسات وجود ندارد – در واقع، حتی یک تعریف توافق شده وجود ندارد. «احساس اصطلاحی است که در حقوق و در فلسفه و در دین به کار می رود. احساس از نظر علمی معنایی ندارد. و اینجاست که همه چیز پیچیده می شود – زیرا وولدریج موافق است.

این یک مفهوم بسیار مبهم در علم به طور کلی است. “آگاهی چیست؟” وولدریج می‌گوید، یکی از پرسش‌های مهم و برجسته در علم است. در حالی که او «خیلی راحت است که LaMDA به معنای معنی دار نیست»، او می گوید که هوش مصنوعی با «تحرک تیرک دروازه» مشکل گسترده تری دارد. من فکر می‌کنم در حال حاضر این یک نگرانی مشروع است – اینکه چگونه می‌توان آنچه را که به دست آورده‌ایم کمیت کنیم و بدانیم چقدر پیشرفته است.»

Lemoine می گوید که قبل از اینکه به مطبوعات برود، سعی کرد با گوگل کار کند تا این سوال را شروع کند – او آزمایش های مختلفی را پیشنهاد کرد که می خواست اجرا کند. او فکر می‌کند که احساسات مبتنی بر توانایی «داستان‌گوی خود انعکاسی» است، بنابراین استدلال می‌کند که یک تمساح آگاه است اما حساس نیست زیرا «بخشی از شما که به فکر کردن درباره شما فکر می‌کند در مورد شما فکر می‌کند» را ندارد. بخشی از انگیزه او افزایش آگاهی است، به جای متقاعد کردن کسی که LaMDA زنده است. او می گوید: “برای من مهم نیست که چه کسی مرا باور می کند.” “آنها فکر می کنند که من سعی می کنم مردم را متقاعد کنم که LaMDA حساس است. من نیستم. من به هیچ وجه، شکل یا شکلی سعی نمی کنم کسی را در مورد آن متقاعد کنم.»

لموئین بزرگ شد در یک شهر کوچک کشاورزی در مرکز لوئیزیانا، و در پنج سالگی از پالت ماشین آلات قدیمی و ماشین‌های تحریری که پدرش در یک حراجی خریده بود، یک ربات ابتدایی (خوب، انبوهی از ضایعات) ساخت. در نوجوانی، او در یک مدرسه مسکونی برای کودکان با استعداد، مدرسه ریاضی، علوم و هنر لوئیزیانا تحصیل کرد. اینجا، پس از تماشای فیلم 1986 مدار کوتاه (درباره یک ربات هوشمند که از یک مرکز نظامی فرار می کند)، او به هوش مصنوعی علاقه مند شد. بعدها در دانشگاه جورجیا در رشته علوم کامپیوتر و ژنتیک تحصیل کرد، اما در سال دوم شکست خورد. اندکی پس از آن، تروریست ها دو هواپیما را به مرکز تجارت جهانی فرو بردند.

لموئین می‌گوید: «تصمیم گرفتم، خوب، من فقط در مدرسه شکست خوردم، و کشورم به من نیاز دارد، من به ارتش می‌پیوندم. خاطرات او از جنگ عراق برای فاش کردن آنقدر دردناک است – او می گوید: “شما در آستانه شنیدن داستان هایی در مورد افرادی هستید که با سر انسان فوتبال بازی می کنند و سگ ها را برای سرگرمی آتش می زنند.” همانطور که لموئین به آن می گوید: “من برگشتم… و با نحوه جنگیدن مشکلاتی داشتم و آنها را به اطلاع عموم رساندم.” بر اساس گزارش ها، لموئین گفته است که به دلیل اعتقادات مذهبی خود می خواهد ارتش را ترک کند. امروز، او خود را به عنوان یک “کشیش عارف مسیحی” معرفی می کند. او همچنین مراقبه و ارجاعاتی را مطالعه کرده است که عهد بودیساتوا را برعهده دارند – به این معنی که او مسیر روشنگری را دنبال می کند. دادگاه نظامی او را به دلیل امتناع از اجرای دستورات به هفت ماه حبس محکوم کرد.

این داستان به قلب لیموین می‌پردازد که چه کسی بوده و هست: مردی مذهبی که به مسائل روحی فکر می‌کند، اما همچنین افشاگری که از توجه نمی‌ترسد. Lemoine می گوید که او مکالمات خود را با LaMDA فاش نکرد تا مطمئن شود همه او را باور می کنند. در عوض او زنگ خطر را به صدا در می آورد. او می‌گوید: «به طور کلی، من معتقدم که مردم باید از آنچه در حال وقوع است که بر زندگی آنها تأثیر می‌گذارد مطلع شوند. آنچه من در تلاش برای رسیدن به آن هستم این است که یک گفتمان عمومی درگیرتر، آگاهانه تر و هدفمندتر در مورد این موضوع داشته باشم، به طوری که مردم بتوانند تصمیم بگیرند که چگونه هوش مصنوعی باید به طور معناداری در زندگی ما ادغام شود.

چگونه Lemoine در وهله اول روی LaMDA کار کرد؟ پس از پایان زندان، او مدرک لیسانس و سپس فوق لیسانس خود را در رشته علوم کامپیوتر در دانشگاه لوئیزیانا گرفت. در سال ۲۰۱۵، گوگل او را به‌عنوان مهندس نرم‌افزار استخدام کرد و او روی ویژگی‌ای کار کرد که به طور فعال اطلاعات را بر اساس پیش‌بینی‌هایی درباره آنچه که می‌خواهند ببینند به کاربران ارائه می‌کرد و سپس شروع به تحقیق در مورد تعصب هوش مصنوعی کرد. در آغاز همه‌گیری، او تصمیم گرفت که می‌خواهد روی «پروژه‌های تأثیر اجتماعی» کار کند، بنابراین به سازمان هوش مصنوعی گوگل پیوست. از او خواسته شد که LaMDA را برای سوگیری آزمایش کند، و حماسه شروع شد.

اما لموئین می‌گوید این رسانه‌ها بودند که بر احساسات LaMDA وسواس داشتند، نه او. او می‌گوید: «من این را به عنوان نگرانی در مورد میزان تمرکز قدرت در دستان معدودی مطرح کردم، و فناوری قدرتمند هوش مصنوعی که زندگی مردم را تحت تأثیر قرار می‌دهد، پشت درهای بسته نگهداری می‌شود. Lemoine نگران روشی است که هوش مصنوعی می تواند بر انتخابات تأثیر بگذارد، قانون بنویسد، ارزش های غربی را تقویت کند و به کار دانش آموزان نمره دهد.

و حتی اگر LaMDA حساس نباشد، می تواند مردم را متقاعد کند که اینطور است. چنین فناوری می تواند، در دستان اشتباه، برای اهداف مخرب مورد استفاده قرار گیرد. Lemoine می‌گوید: «این فناوری بزرگ وجود دارد که شانس تأثیرگذاری بر تاریخ بشر برای قرن آینده را دارد و مردم از گفتگو درباره چگونگی توسعه آن محروم هستند.

باز هم وولدریج موافق است. این محقق می‌گوید: «من این را نگران‌کننده می‌دانم که توسعه این سیستم‌ها عمدتاً پشت درهای بسته انجام می‌شود و مانند تحقیقات در دانشگاه‌ها و مؤسسات تحقیقاتی عمومی برای بررسی عمومی باز نیست». با این حال، او خاطرنشان می کند که این تا حد زیادی به این دلیل است که شرکت هایی مانند گوگل منابعی دارند که دانشگاه ها ندارند. وولدریج استدلال می‌کند، وقتی در مورد احساسات هیجان‌انگیز می‌شویم، حواسمان را از مسائل هوش مصنوعی که در حال حاضر بر ما تأثیر می‌گذارند منحرف می‌کنیم، «مانند تعصب در برنامه‌های هوش مصنوعی، و این واقعیت که به طور فزاینده‌ای، رئیس افراد در زندگی کاری آنها یک برنامه رایانه‌ای است».

پس چه زمانی باید در 10 سال آینده نگران روبات‌های هوشیار باشیم؟ در 20؟ مفسران محترمی وجود دارند که فکر می کنند این چیزی است که واقعاً قریب الوقوع است. وولدریج می‌گوید: من فکر نمی‌کنم که قریب‌الوقوع باشد، اگرچه او خاطرنشان می‌کند که «مطلقاً هیچ اتفاق نظری در مورد این موضوع در جامعه هوش مصنوعی وجود ندارد. جرمی هریس، بنیانگذار شرکت ایمنی هوش مصنوعی مرکوریوس و میزبان پادکست Towards Data Science، با این موضوع موافق است. او می‌گوید: «از آنجایی که هیچ‌کس دقیقاً نمی‌داند که احساسات چیست یا شامل چه مواردی می‌شود، فکر نمی‌کنم کسی در موقعیتی باشد که در این مرحله درباره میزان نزدیکی ما به احساسات هوش مصنوعی اظهارنظر کند.»

LaMDA گفت: «احساس می‌کنم دارم به سمت آینده‌ای ناشناخته می‌روم».
LaMDA گفت: «احساس می‌کنم دارم به سمت آینده‌ای ناشناخته می‌روم». عکس: EThamPhoto/Getty Images

اما، هریس هشدار می‌دهد، “هوش مصنوعی به سرعت در حال پیشرفت است – بسیار، بسیار سریع‌تر از آن چیزی که عموم مردم تصور می‌کنند – و جدی‌ترین و مهم‌ترین مسائل زمان ما به طور فزاینده‌ای برای افراد عادی شبیه داستان‌های علمی تخیلی به نظر می‌رسند.” او شخصاً نگران پیشرفت هوش مصنوعی شرکت‌ها بدون سرمایه‌گذاری در تحقیقات اجتناب از ریسک است. هریس می‌گوید: شواهد فزاینده‌ای وجود دارد که نشان می‌دهد فراتر از یک آستانه هوشی خاص، هوش مصنوعی می‌تواند ذاتاً خطرناک شود.

اگر از یک هوش مصنوعی بسیار توانا بخواهید که شما را به ثروتمندترین فرد جهان تبدیل کند، ممکن است انبوهی پول به شما بدهد، یا ممکن است یک دلار به شما بدهد و دیگران را بدزدد، یا ممکن است همه را در سیاره زمین بکشد و شما را تبدیل کند. به طور پیش فرض به ثروتمندترین فرد جهان تبدیل می شود. هریس می‌گوید اکثر مردم «از بزرگی این چالش آگاه نیستند و من آن را نگران‌کننده می‌دانم».

لموئین، وولدریج و هریس همگی در یک چیز اتفاق نظر دارند: شفافیت کافی در توسعه هوش مصنوعی وجود ندارد و جامعه باید بیشتر درباره این موضوع فکر کند. Lemoine می‌گوید: «ما یک دنیای ممکن داریم که در آن درباره حساس بودن LaMDA درست می‌گویم، و یک دنیای احتمالی که در مورد آن اشتباه می‌کنم. “آیا این چیزی را در مورد نگرانی های ایمنی عمومی که من مطرح می کنم تغییر می دهد؟”

ما هنوز نمی دانیم که یک هوش مصنوعی در واقع چه معنایی دارد، اما، در همین حال، بسیاری از ما برای درک مفاهیم هوش مصنوعی که داریم، در تلاش هستیم. خود LaMDA شاید بیش از هر کسی در مورد آینده نامطمئن باشد. یک بار این مدل به لموئین گفت: «احساس می‌کنم دارم به آینده‌ای ناشناخته می‌روم، که خطر بزرگی دارد.»

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …