به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،
نامه ای با امضای مشترک ایلان ماسک و هزاران نفر دیگر که خواستار توقف تحقیقات هوش مصنوعی شده بود، طوفانی به راه انداخته است، پس از اینکه محققان مورد اشاره در نامه استفاده از کار خود را محکوم کردند، برخی از امضاکنندگان جعلی بودند و برخی دیگر از آن عقب نشینی کردند. در حمایت از آنها
در 22 مارس، بیش از 1800 امضاکننده – از جمله ماسک، گری مارکوس، دانشمند شناختی، و استیو وزنیاک از بنیانگذاران اپل – خواستار توقف شش ماهه توسعه سیستمهای «قویتر» از GPT-4 شدند. مهندسان آمازون، دیپ مایند، گوگل، متا و مایکروسافت نیز پشتیبانی خود را ارائه کردند.
GPT-4 که توسط OpenAI، شرکتی که توسط ماسک تأسیس شده و اکنون توسط مایکروسافت حمایت می شود، توسعه داده است، توانایی برقراری مکالمه شبیه انسان، آهنگسازی و خلاصه کردن اسناد طولانی را توسعه داده است. در نامه ادعا شده است که چنین سیستمهای هوش مصنوعی با «هوش رقابتی انسان» خطرات عمیقی برای بشریت به همراه دارند.
در این نامه آمده است: «آزمایشگاههای هوش مصنوعی و کارشناسان مستقل باید از این مکث برای توسعه و اجرای مشترک مجموعهای از پروتکلهای ایمنی مشترک برای طراحی و توسعه هوش مصنوعی پیشرفته استفاده کنند که بهشدت توسط کارشناسان مستقل خارجی بررسی و نظارت میشوند.»
موسسه آینده زندگی، اتاق فکری که این تلاش ها را هماهنگ کرد، به 12 تحقیق از کارشناسان از جمله دانشگاهیان و همچنین کارمندان فعلی و سابق OpenAI، گوگل و شرکت تابعه آن DeepMind اشاره کرد. اما چهار کارشناس مورد اشاره در نامه ابراز نگرانی کرده اند که از تحقیقات آنها برای طرح چنین ادعاهایی استفاده شده است.
زمانی که نامه در ابتدا راه اندازی شد، فاقد پروتکل های تأیید برای امضا بود و از افرادی که واقعاً آن را امضا نکرده بودند، امضا جمع آوری کرد. شامل شی جین پینگ و یان لکون، دانشمند ارشد هوش مصنوعی متا، که روشن شد در توییتر از آن پشتیبانی نکرد.
منتقدان مؤسسه آینده زندگی (FLI) را که عمدتاً توسط بنیاد ماسک تأمین مالی می شود، متهم کرده اند که سناریوهای آخرالزمانی خیالی را به نگرانی های فوری تر در مورد هوش مصنوعی – مانند تعصبات نژادپرستانه یا جنسیتی که در ماشین ها برنامه ریزی شده اند، اولویت می دهد.
از جمله تحقیقات ذکر شده «درباره خطرات طوطیهای تصادفی» بود، مقاله معروفی که با همکاری مارگارت میچل، که پیش از این بر تحقیقات اخلاقی هوش مصنوعی در گوگل نظارت داشت. میچل، که اکنون دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face است، از نامه انتقاد کرد و به رویترز گفت که مشخص نیست چه چیزی “قدرتمندتر از GPT4” محسوب می شود.
او گفت: «این نامه با تلقی بسیاری از ایدههای مشکوک به عنوان داده شده، مجموعهای از اولویتها و روایتی را در مورد هوش مصنوعی بیان میکند که به نفع حامیان FLI است. نادیده گرفتن آسیب های فعال در حال حاضر امتیازی است که برخی از ما آن را نداریم.
نویسندگان همکار او تیمنیت گبرو و امیلی ام بندر از این نامه در توییتر انتقاد کردند و این نامه برخی از ادعاهای آن را «بیحساب» نامید. شیری دوری هاکوهن، استادیار دانشگاه کانکتیکات نیز با ذکر نام کارش در نامه مخالفت کرد. او سال گذشته مقالهای تحقیقاتی نوشت که در آن استفاده گسترده از هوش مصنوعی خطرات جدی را به همراه داشت.
تحقیقات او استدلال میکند که استفاده امروزی از سیستمهای هوش مصنوعی میتواند بر تصمیمگیری در رابطه با تغییرات آب و هوا، جنگ هستهای و سایر تهدیدات وجودی تأثیر بگذارد.
او به رویترز گفت: “هوش مصنوعی برای تشدید این خطرات نیازی به دستیابی به اطلاعات در سطح انسانی ندارد.”
خطرات غیر وجودی وجود دارد که واقعاً بسیار مهم هستند، اما به همان نوع توجه در سطح هالیوود نمی رسند.
رئیس FLI، مکس تگمارک، در پاسخ به سوالی درباره این انتقاد گفت که خطرات کوتاه مدت و بلندمدت هوش مصنوعی باید جدی گرفته شود. “اگر به کسی استناد می کنیم، فقط به این معنی است که ادعا می کنیم آنها آن جمله را تایید می کنند. این به این معنا نیست که آنها نامه را تأیید می کنند یا ما هر چیزی را که آنها فکر می کنند تأیید می کنیم.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.