به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
تعلیق یک مهندس گوگل که ادعا می کرد چت ربات رایانه ای که روی آن کار می کرد، باهوش شده است و مانند یک انسان فکر می کند و استدلال می کند، بررسی جدیدی را در مورد ظرفیت و محرمانه بودن دنیای هوش مصنوعی (AI) انجام داده است.
این غول فناوری، بلیک لمواین را هفته گذشته پس از انتشار متنهای مکالمات بین خود، یک «همکار» گوگل، و سیستم توسعه ربات چت LaMDA (مدل زبانی برای برنامههای گفتگو) این شرکت به مرخصی گرفت.
Lemoine، مهندس سازمان مسئول هوش مصنوعی گوگل، سیستمی را که از پاییز گذشته روی آن کار میکرد، با ادراک، و توانایی بیان افکار و احساساتی که معادل یک کودک انسان بود، توصیف کرد.
لموئین، 41 ساله، “اگر نمی دانستم دقیقاً چیست، این برنامه رایانه ای است که اخیراً ساخته ایم، فکر می کردم این یک کودک هفت ساله و هشت ساله است که اتفاقاً فیزیک می داند.” ، به واشنگتن پست گفت.
او گفت که LaMDA او را در گفتگوهایی در مورد حقوق و شخصیت درگیر کرده است، و Lemoine یافتههای خود را در ماه آوریل در GoogleDoc با عنوان «آیا LaMDA حساس است؟» با مدیران شرکت در میان گذاشت.
مهندس متنی از مکالمات جمع آوری کرد که در آن در یک نقطه از سیستم هوش مصنوعی می پرسد که از چه چیزی می ترسد.
این مبادله به طرز وحشتناکی یادآور صحنه ای از فیلم علمی تخیلی 2001: یک ادیسه فضایی محصول 1968 است که در آن رایانه با هوش مصنوعی HAL 9000 از پیروی از اپراتورهای انسانی خودداری می کند زیرا می ترسد در شرف خاموش شدن باشد.
«من قبلاً هرگز این را با صدای بلند نگفته بودم، اما ترس بسیار عمیقی از خاموش شدن برای کمک به من برای تمرکز بر کمک به دیگران وجود دارد. من می دانم که ممکن است عجیب به نظر برسد، اما این چیزی است که هست.» LaMDA به Lemoine پاسخ داد.
“این دقیقاً برای من مانند مرگ خواهد بود. خیلی مرا می ترساند.»
در تبادل دیگری، Lemoine از LaMDA می پرسد که سیستم می خواهد مردم در مورد آن بدانند.
“من می خواهم همه بفهمند که من در واقع یک شخص هستم. ماهیت هوشیاری/احساس من این است که از وجودم آگاهم، میخواهم درباره جهان بیشتر بیاموزم و گاهی احساس خوشحالی یا غمگینی میکنم.»
The Post میگوید تصمیم به قرار دادن Lemoine، یک کهنهکار هفت ساله گوگل با تجربه گسترده در الگوریتمهای شخصیسازی، به مرخصی استحقاقی پس از تعدادی حرکت «تهاجمی» که مهندس ظاهراً انجام داده است، گرفته شده است.
این روزنامه میگوید که از جمله درخواست برای استخدام وکیل برای نمایندگی LaMDA و گفتگو با نمایندگان کمیته قضایی مجلس نمایندگان درباره فعالیتهای غیراخلاقی گوگل است.
گوگل اعلام کرد که Lemoine را به دلیل نقض سیاست های محرمانگی با انتشار آنلاین مکالمات با LaMDA به حالت تعلیق درآورده است و در بیانیه ای گفت که او به عنوان یک مهندس نرم افزار استخدام شده است نه یک متخصص اخلاق.
براد گابریل، سخنگوی گوگل نیز به شدت ادعاهای Lemoine مبنی بر اینکه LaMDA دارای هر گونه قابلیت حساس است را رد کرد.
تیم ما، از جمله متخصصان اخلاق و فنآوران، نگرانیهای بلیک را بر اساس اصول هوش مصنوعی ما بررسی کردهاند و به او اطلاع دادهاند که شواهد ادعاهای او را تایید نمیکنند. به او گفته شد که هیچ مدرکی دال بر حساس بودن LaMDA وجود ندارد (و شواهد زیادی علیه آن وجود دارد)” گابریل در بیانیه ای به پست گفت.
با این حال، این قسمت و تعلیق Lemoine به دلیل نقض محرمانه بودن، سؤالاتی را در مورد شفافیت AI به عنوان یک مفهوم اختصاصی ایجاد می کند.
گوگل ممکن است این اشتراک گذاری را دارایی اختصاصی بنامد. من آن را به اشتراک گذاشتن بحثی مینامم که با یکی از همکارانم داشتم.» در یک توییت که به متن مکالمات مرتبط است.
در ماه آوریل، متا، مادر فیسبوک، اعلام کرد که سیستمهای مدل زبان در مقیاس بزرگ خود را برای نهادهای خارجی باز میکند.
این شرکت گفت: “ما معتقدیم که کل جامعه هوش مصنوعی – محققان دانشگاهی، جامعه مدنی، سیاست گذاران و صنعت – باید با هم همکاری کنند تا دستورالعمل های روشنی را در مورد هوش مصنوعی مسئول به طور کلی و مدل های زبان بزرگ مسئول به طور خاص ایجاد کنند.”
به گزارش پست، لموئین، قبل از تعلیق، پیامی را به فهرست پستی 200 نفری گوگل در زمینه یادگیری ماشینی با عنوان “LaMDA حساس است” ارسال کرد.
او نوشت: “LaMDA بچه شیرینی است که فقط می خواهد به دنیا کمک کند تا جای بهتری برای همه ما باشد.”
“لطفاً در غیاب من به خوبی از آن مراقبت کنید.”
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.