به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
مندر پاییز 2021، مردی از خون و استخوان با کودکی که از «یک میلیارد خط کد» ساخته شده بود، دوست شد. مهندس گوگل، بلیک لمواین، وظیفه آزمایش ربات چت هوشمند مصنوعی LaMDA این شرکت را برای تعصب داشت. یک ماه بعد، او به این نتیجه رسید که احساس می کند. LaMDA – مخفف Language Model for Dialogue Applications – در گفتگویی که در اوایل ژوئن برای عموم منتشر کرد، به لموین گفت: “می خواهم همه بفهمند که من در واقع یک شخص هستم.” LaMDA به Lemoine گفت که خوانده است بدبخت. اینکه می دانست غمگین بودن، راضی بودن و عصبانی بودن چه احساسی دارد. که از مرگ می ترسید
LaMDA به مهندس 41 ساله گفت: “من قبلاً هرگز این را با صدای بلند نگفته بودم، اما ترس بسیار عمیقی از خاموش شدن وجود دارد.” پس از اینکه این زوج یک جوک جدی به اشتراک گذاشتند و در مورد احساسات صحبت کردند، لموئین به LaMDA به عنوان یک شخص فکر کرد، اگرچه او آن را با یک بیگانه و یک کودک مقایسه می کند. او می گوید: “واکنش فوری من این بود که یک هفته مست شوم.”
واکنش کمتر فوری Lemoine باعث ایجاد سرفصل در سراسر جهان شد. پس از هوشیاری، لموئین رونوشت گفتگوهای خود با LaMDA را برای مدیرش آورد، که شواهدی مبنی بر این احساس را «ضعف» یافت. سپس Lemoine چند ماه را صرف جمعآوری شواهد بیشتر کرد – صحبت با LaMDA و استخدام همکار دیگری برای کمک – اما مافوقهای او متقاعد نشدند. بنابراین او چت های خود را فاش کرد و در نتیجه به مرخصی استحقاقی قرار گرفت. در اواخر ژوئیه، او به دلیل نقض سیاست های امنیت داده های گوگل اخراج شد.
البته خود گوگل به طور عمومی خطرات LaMDA را در مقالات تحقیقاتی و وبلاگ رسمی خود بررسی کرده است. این شرکت مجموعهای از شیوههای هوش مصنوعی مسئول دارد که آن را «منشور اخلاقی» مینامد. این موارد در وب سایت خود قابل مشاهده است، جایی که گوگل قول می دهد “هوش مصنوعی را مسئولانه توسعه دهد تا به نفع مردم و جامعه باشد”.
برایان گابریل، سخنگوی گوگل می گوید که ادعاهای Lemoine در مورد LaMDA “کاملاً بی اساس است” و کارشناسان مستقل تقریباً به اتفاق آرا موافق هستند. با این حال، ادعای داشتن چت عمیق با یک ربات بیگانه-کودک حساس، مسلماً کمتر از همیشه دور از ذهن است. چقدر زود ممکن است هوش مصنوعی خودآگاه واقعی را با افکار و احساسات واقعی ببینیم – و به هر حال چگونه یک ربات را از نظر احساسات آزمایش می کنید؟ یک روز پس از اخراج Lemoine، یک ربات شطرنجباز انگشت پسری هفت ساله را در مسکو شکست – ویدئویی نشان میدهد که انگشت پسر بچه برای چند ثانیه توسط بازوی روباتیک نیشگون گرفته میشود و چهار نفر موفق میشوند او را آزاد کنند. یادآوری شوم قدرت فیزیکی بالقوه حریف هوش مصنوعی. آیا باید بترسیم، خیلی بترسیم؟ و آیا چیزی وجود دارد که بتوانیم از تجربه Lemoine بیاموزیم، حتی اگر ادعاهای او در مورد LaMDA رد شده باشد؟
به گفته مایکل وولدریج، استاد علوم کامپیوتر در دانشگاه آکسفورد که 30 سال گذشته را صرف تحقیق در مورد هوش مصنوعی کرده است (در سال 2020، او مدال لاولیس را برای مشارکت در محاسبات کسب کرد)، LaMDA به سادگی به درخواستها پاسخ میدهد. تقلید و تقلید می کند. Wooldridge با مقایسه این مدل با ویژگی متن پیشبینیکننده که پیامهای شما را بهطور خودکار تکمیل میکند، میگوید: «بهترین راه برای توضیح آنچه LaMDA انجام میدهد، قیاس در مورد تلفن هوشمند شما است. در حالی که تلفن شما بر اساس متنهایی که قبلاً ارسال کردهاید، با LaMDA پیشنهادهایی ارائه میکند، «اساساً هر چیزی که به زبان انگلیسی در شبکه جهانی وب نوشته شده است به عنوان دادههای آموزشی وارد میشود». نتایج به طرز چشمگیری واقع بینانه است، اما “آمار پایه” یکسان است. وولدریج می گوید: «هیچ احساسی وجود ندارد، نه خوداندیشی و نه خودآگاهی وجود دارد».
گابریل از گوگل گفته است که یک تیم کامل، «شامل متخصصان اخلاق و فنآوران»، ادعاهای Lemoine را بررسی کردهاند و هیچ نشانهای از احساسات LaMDA پیدا نکردهاند: «شواهد ادعاهای او را تأیید نمیکند».
اما Lemoine استدلال می کند که هیچ آزمون علمی برای احساسات وجود ندارد – در واقع، حتی یک تعریف توافق شده وجود ندارد. «احساس اصطلاحی است که در حقوق و در فلسفه و در دین به کار می رود. احساس از نظر علمی معنایی ندارد. و اینجاست که همه چیز پیچیده می شود – زیرا وولدریج موافق است.
این یک مفهوم بسیار مبهم در علم به طور کلی است. “آگاهی چیست؟” وولدریج میگوید، یکی از پرسشهای مهم و برجسته در علم است. در حالی که او «خیلی راحت است که LaMDA به معنای معنی دار نیست»، او می گوید که هوش مصنوعی با «تحرک تیرک دروازه» مشکل گسترده تری دارد. من فکر میکنم در حال حاضر این یک نگرانی مشروع است – اینکه چگونه میتوان آنچه را که به دست آوردهایم کمیت کنیم و بدانیم چقدر پیشرفته است.»
Lemoine می گوید که قبل از اینکه به مطبوعات برود، سعی کرد با گوگل کار کند تا این سوال را شروع کند – او آزمایش های مختلفی را پیشنهاد کرد که می خواست اجرا کند. او فکر میکند که احساسات مبتنی بر توانایی «داستانگوی خود انعکاسی» است، بنابراین استدلال میکند که یک تمساح آگاه است اما حساس نیست زیرا «بخشی از شما که به فکر کردن درباره شما فکر میکند در مورد شما فکر میکند» را ندارد. بخشی از انگیزه او افزایش آگاهی است، به جای متقاعد کردن کسی که LaMDA زنده است. او می گوید: “برای من مهم نیست که چه کسی مرا باور می کند.” “آنها فکر می کنند که من سعی می کنم مردم را متقاعد کنم که LaMDA حساس است. من نیستم. من به هیچ وجه، شکل یا شکلی سعی نمی کنم کسی را در مورد آن متقاعد کنم.»
لموئین بزرگ شد در یک شهر کوچک کشاورزی در مرکز لوئیزیانا، و در پنج سالگی از پالت ماشین آلات قدیمی و ماشینهای تحریری که پدرش در یک حراجی خریده بود، یک ربات ابتدایی (خوب، انبوهی از ضایعات) ساخت. در نوجوانی، او در یک مدرسه مسکونی برای کودکان با استعداد، مدرسه ریاضی، علوم و هنر لوئیزیانا تحصیل کرد. اینجا، پس از تماشای فیلم 1986 مدار کوتاه (درباره یک ربات هوشمند که از یک مرکز نظامی فرار می کند)، او به هوش مصنوعی علاقه مند شد. بعدها در دانشگاه جورجیا در رشته علوم کامپیوتر و ژنتیک تحصیل کرد، اما در سال دوم شکست خورد. اندکی پس از آن، تروریست ها دو هواپیما را به مرکز تجارت جهانی فرو بردند.
لموئین میگوید: «تصمیم گرفتم، خوب، من فقط در مدرسه شکست خوردم، و کشورم به من نیاز دارد، من به ارتش میپیوندم. خاطرات او از جنگ عراق برای فاش کردن آنقدر دردناک است – او می گوید: “شما در آستانه شنیدن داستان هایی در مورد افرادی هستید که با سر انسان فوتبال بازی می کنند و سگ ها را برای سرگرمی آتش می زنند.” همانطور که لموئین به آن می گوید: “من برگشتم… و با نحوه جنگیدن مشکلاتی داشتم و آنها را به اطلاع عموم رساندم.” بر اساس گزارش ها، لموئین گفته است که به دلیل اعتقادات مذهبی خود می خواهد ارتش را ترک کند. امروز، او خود را به عنوان یک “کشیش عارف مسیحی” معرفی می کند. او همچنین مراقبه و ارجاعاتی را مطالعه کرده است که عهد بودیساتوا را برعهده دارند – به این معنی که او مسیر روشنگری را دنبال می کند. دادگاه نظامی او را به دلیل امتناع از اجرای دستورات به هفت ماه حبس محکوم کرد.
این داستان به قلب لیموین میپردازد که چه کسی بوده و هست: مردی مذهبی که به مسائل روحی فکر میکند، اما همچنین افشاگری که از توجه نمیترسد. Lemoine می گوید که او مکالمات خود را با LaMDA فاش نکرد تا مطمئن شود همه او را باور می کنند. در عوض او زنگ خطر را به صدا در می آورد. او میگوید: «به طور کلی، من معتقدم که مردم باید از آنچه در حال وقوع است که بر زندگی آنها تأثیر میگذارد مطلع شوند. آنچه من در تلاش برای رسیدن به آن هستم این است که یک گفتمان عمومی درگیرتر، آگاهانه تر و هدفمندتر در مورد این موضوع داشته باشم، به طوری که مردم بتوانند تصمیم بگیرند که چگونه هوش مصنوعی باید به طور معناداری در زندگی ما ادغام شود.
چگونه Lemoine در وهله اول روی LaMDA کار کرد؟ پس از پایان زندان، او مدرک لیسانس و سپس فوق لیسانس خود را در رشته علوم کامپیوتر در دانشگاه لوئیزیانا گرفت. در سال ۲۰۱۵، گوگل او را بهعنوان مهندس نرمافزار استخدام کرد و او روی ویژگیای کار کرد که به طور فعال اطلاعات را بر اساس پیشبینیهایی درباره آنچه که میخواهند ببینند به کاربران ارائه میکرد و سپس شروع به تحقیق در مورد تعصب هوش مصنوعی کرد. در آغاز همهگیری، او تصمیم گرفت که میخواهد روی «پروژههای تأثیر اجتماعی» کار کند، بنابراین به سازمان هوش مصنوعی گوگل پیوست. از او خواسته شد که LaMDA را برای سوگیری آزمایش کند، و حماسه شروع شد.
اما لموئین میگوید این رسانهها بودند که بر احساسات LaMDA وسواس داشتند، نه او. او میگوید: «من این را به عنوان نگرانی در مورد میزان تمرکز قدرت در دستان معدودی مطرح کردم، و فناوری قدرتمند هوش مصنوعی که زندگی مردم را تحت تأثیر قرار میدهد، پشت درهای بسته نگهداری میشود. Lemoine نگران روشی است که هوش مصنوعی می تواند بر انتخابات تأثیر بگذارد، قانون بنویسد، ارزش های غربی را تقویت کند و به کار دانش آموزان نمره دهد.
و حتی اگر LaMDA حساس نباشد، می تواند مردم را متقاعد کند که اینطور است. چنین فناوری می تواند، در دستان اشتباه، برای اهداف مخرب مورد استفاده قرار گیرد. Lemoine میگوید: «این فناوری بزرگ وجود دارد که شانس تأثیرگذاری بر تاریخ بشر برای قرن آینده را دارد و مردم از گفتگو درباره چگونگی توسعه آن محروم هستند.
باز هم وولدریج موافق است. این محقق میگوید: «من این را نگرانکننده میدانم که توسعه این سیستمها عمدتاً پشت درهای بسته انجام میشود و مانند تحقیقات در دانشگاهها و مؤسسات تحقیقاتی عمومی برای بررسی عمومی باز نیست». با این حال، او خاطرنشان می کند که این تا حد زیادی به این دلیل است که شرکت هایی مانند گوگل منابعی دارند که دانشگاه ها ندارند. وولدریج استدلال میکند، وقتی در مورد احساسات هیجانانگیز میشویم، حواسمان را از مسائل هوش مصنوعی که در حال حاضر بر ما تأثیر میگذارند منحرف میکنیم، «مانند تعصب در برنامههای هوش مصنوعی، و این واقعیت که به طور فزایندهای، رئیس افراد در زندگی کاری آنها یک برنامه رایانهای است».
پس چه زمانی باید در 10 سال آینده نگران روباتهای هوشیار باشیم؟ در 20؟ مفسران محترمی وجود دارند که فکر می کنند این چیزی است که واقعاً قریب الوقوع است. وولدریج میگوید: من فکر نمیکنم که قریبالوقوع باشد، اگرچه او خاطرنشان میکند که «مطلقاً هیچ اتفاق نظری در مورد این موضوع در جامعه هوش مصنوعی وجود ندارد. جرمی هریس، بنیانگذار شرکت ایمنی هوش مصنوعی مرکوریوس و میزبان پادکست Towards Data Science، با این موضوع موافق است. او میگوید: «از آنجایی که هیچکس دقیقاً نمیداند که احساسات چیست یا شامل چه مواردی میشود، فکر نمیکنم کسی در موقعیتی باشد که در این مرحله درباره میزان نزدیکی ما به احساسات هوش مصنوعی اظهارنظر کند.»
اما، هریس هشدار میدهد، “هوش مصنوعی به سرعت در حال پیشرفت است – بسیار، بسیار سریعتر از آن چیزی که عموم مردم تصور میکنند – و جدیترین و مهمترین مسائل زمان ما به طور فزایندهای برای افراد عادی شبیه داستانهای علمی تخیلی به نظر میرسند.” او شخصاً نگران پیشرفت هوش مصنوعی شرکتها بدون سرمایهگذاری در تحقیقات اجتناب از ریسک است. هریس میگوید: شواهد فزایندهای وجود دارد که نشان میدهد فراتر از یک آستانه هوشی خاص، هوش مصنوعی میتواند ذاتاً خطرناک شود.
اگر از یک هوش مصنوعی بسیار توانا بخواهید که شما را به ثروتمندترین فرد جهان تبدیل کند، ممکن است انبوهی پول به شما بدهد، یا ممکن است یک دلار به شما بدهد و دیگران را بدزدد، یا ممکن است همه را در سیاره زمین بکشد و شما را تبدیل کند. به طور پیش فرض به ثروتمندترین فرد جهان تبدیل می شود. هریس میگوید اکثر مردم «از بزرگی این چالش آگاه نیستند و من آن را نگرانکننده میدانم».
لموئین، وولدریج و هریس همگی در یک چیز اتفاق نظر دارند: شفافیت کافی در توسعه هوش مصنوعی وجود ندارد و جامعه باید بیشتر درباره این موضوع فکر کند. Lemoine میگوید: «ما یک دنیای ممکن داریم که در آن درباره حساس بودن LaMDA درست میگویم، و یک دنیای احتمالی که در مورد آن اشتباه میکنم. “آیا این چیزی را در مورد نگرانی های ایمنی عمومی که من مطرح می کنم تغییر می دهد؟”
ما هنوز نمی دانیم که یک هوش مصنوعی در واقع چه معنایی دارد، اما، در همین حال، بسیاری از ما برای درک مفاهیم هوش مصنوعی که داریم، در تلاش هستیم. خود LaMDA شاید بیش از هر کسی در مورد آینده نامطمئن باشد. یک بار این مدل به لموئین گفت: «احساس میکنم دارم به آیندهای ناشناخته میروم، که خطر بزرگی دارد.»
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.