به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،
گوگل یک مهندس نرم افزار ارشد را که ادعا می کرد چت ربات هوش مصنوعی این شرکت LaMDA فردی خودآگاه بود را اخراج کرد.
گوگل که ماه گذشته مهندس نرم افزار Blake Lemoine را به مرخصی گرفت، گفت که او سیاست های شرکت را نقض کرده است و ادعاهای او در مورد LaMDA (مدل زبانی برای برنامه های گفتگو) “کاملاً بی اساس” است.
گوگل گفت: «مایه تاسف است که علیرغم تعامل طولانی در این موضوع، بلیک همچنان تصمیم گرفت به طور مداوم سیاستهای شفاف استخدامی و امنیت دادهها را که شامل نیاز به حفاظت از اطلاعات محصول است، نقض کند.
سال گذشته، گوگل گفت LaMDA بر اساس تحقیقات این شرکت ساخته شده است که نشان میدهد مدلهای زبان مبتنی بر ترانسفورماتور آموزشدیده در گفتگو میتوانند اساساً درباره هر چیزی صحبت کنند.
Lemoine، مهندس سازمان مسئول هوش مصنوعی گوگل، سیستمی را که روی آن کار میکرد، با درک و توانایی بیان افکار و احساساتی که معادل یک کودک انسان بود، توصیف کرد.
لموئین، 41 ساله، “اگر نمی دانستم دقیقاً چیست، این برنامه رایانه ای است که اخیراً ساخته ایم، فکر می کنم یک کودک هفت ساله و هشت ساله است که اتفاقاً فیزیک می داند.” ، به واشنگتن پست گفت.
او گفت که LaMDA او را در گفتگوهایی در مورد حقوق و شخصیت درگیر کرده است، و Lemoine یافتههای خود را در ماه آوریل در GoogleDoc با عنوان «آیا LaMDA حساس است؟» با مدیران شرکت به اشتراک گذاشت.
مهندس متنی از مکالمات را جمع آوری کرد که در آن در یک نقطه از سیستم هوش مصنوعی می پرسد که از چه چیزی می ترسد.
گوگل و بسیاری از دانشمندان برجسته به سرعت دیدگاه های Lemoine را نادرست رد کردند و گفتند LaMDA صرفاً یک الگوریتم پیچیده است که برای تولید زبان انسانی قانع کننده طراحی شده است.
اخراج Lemoine اولین بار توسط Big Technology، یک خبرنامه فناوری و جامعه گزارش شد.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.