نامه امضا شده توسط ایلان ماسک که خواستار توقف تحقیقات هوش مصنوعی شده بود جنجال برانگیخت | هوش مصنوعی (AI)

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،

نامه ای با امضای مشترک ایلان ماسک و هزاران نفر دیگر که خواستار توقف تحقیقات هوش مصنوعی شده بود، طوفانی به راه انداخته است، پس از اینکه محققان مورد اشاره در نامه استفاده از کار خود را محکوم کردند، برخی از امضاکنندگان جعلی بودند و برخی دیگر از آن عقب نشینی کردند. در حمایت از آنها

در 22 مارس، بیش از 1800 امضاکننده – از جمله ماسک، گری مارکوس، دانشمند شناختی، و استیو وزنیاک از بنیانگذاران اپل – خواستار توقف شش ماهه توسعه سیستم‌های «قوی‌تر» از GPT-4 شدند. مهندسان آمازون، دیپ مایند، گوگل، متا و مایکروسافت نیز پشتیبانی خود را ارائه کردند.

GPT-4 که ​​توسط OpenAI، شرکتی که توسط ماسک تأسیس شده و اکنون توسط مایکروسافت حمایت می شود، توسعه داده است، توانایی برقراری مکالمه شبیه انسان، آهنگسازی و خلاصه کردن اسناد طولانی را توسعه داده است. در نامه ادعا شده است که چنین سیستم‌های هوش مصنوعی با «هوش رقابتی انسان» خطرات عمیقی برای بشریت به همراه دارند.

در این نامه آمده است: «آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل باید از این مکث برای توسعه و اجرای مشترک مجموعه‌ای از پروتکل‌های ایمنی مشترک برای طراحی و توسعه هوش مصنوعی پیشرفته استفاده کنند که به‌شدت توسط کارشناسان مستقل خارجی بررسی و نظارت می‌شوند.»

موسسه آینده زندگی، اتاق فکری که این تلاش ها را هماهنگ کرد، به 12 تحقیق از کارشناسان از جمله دانشگاهیان و همچنین کارمندان فعلی و سابق OpenAI، گوگل و شرکت تابعه آن DeepMind اشاره کرد. اما چهار کارشناس مورد اشاره در نامه ابراز نگرانی کرده اند که از تحقیقات آنها برای طرح چنین ادعاهایی استفاده شده است.

زمانی که نامه در ابتدا راه اندازی شد، فاقد پروتکل های تأیید برای امضا بود و از افرادی که واقعاً آن را امضا نکرده بودند، امضا جمع آوری کرد. شامل شی جین پینگ و یان لکون، دانشمند ارشد هوش مصنوعی متا، که روشن شد در توییتر از آن پشتیبانی نکرد.

منتقدان مؤسسه آینده زندگی (FLI) را که عمدتاً توسط بنیاد ماسک تأمین مالی می شود، متهم کرده اند که سناریوهای آخرالزمانی خیالی را به نگرانی های فوری تر در مورد هوش مصنوعی – مانند تعصبات نژادپرستانه یا جنسیتی که در ماشین ها برنامه ریزی شده اند، اولویت می دهد.

از جمله تحقیقات ذکر شده «درباره خطرات طوطی‌های تصادفی» بود، مقاله معروفی که با همکاری مارگارت میچل، که پیش از این بر تحقیقات اخلاقی هوش مصنوعی در گوگل نظارت داشت. میچل، که اکنون دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face است، از نامه انتقاد کرد و به رویترز گفت که مشخص نیست چه چیزی “قدرتمندتر از GPT4” محسوب می شود.

او گفت: «این نامه با تلقی بسیاری از ایده‌های مشکوک به عنوان داده شده، مجموعه‌ای از اولویت‌ها و روایتی را در مورد هوش مصنوعی بیان می‌کند که به نفع حامیان FLI است. نادیده گرفتن آسیب های فعال در حال حاضر امتیازی است که برخی از ما آن را نداریم.

نویسندگان همکار او تیمنیت گبرو و امیلی ام بندر از این نامه در توییتر انتقاد کردند و این نامه برخی از ادعاهای آن را «بی‌حساب» نامید. شیری دوری هاکوهن، استادیار دانشگاه کانکتیکات نیز با ذکر نام کارش در نامه مخالفت کرد. او سال گذشته مقاله‌ای تحقیقاتی نوشت که در آن استفاده گسترده از هوش مصنوعی خطرات جدی را به همراه داشت.

تحقیقات او استدلال می‌کند که استفاده امروزی از سیستم‌های هوش مصنوعی می‌تواند بر تصمیم‌گیری در رابطه با تغییرات آب و هوا، جنگ هسته‌ای و سایر تهدیدات وجودی تأثیر بگذارد.

او به رویترز گفت: “هوش مصنوعی برای تشدید این خطرات نیازی به دستیابی به اطلاعات در سطح انسانی ندارد.”

خطرات غیر وجودی وجود دارد که واقعاً بسیار مهم هستند، اما به همان نوع توجه در سطح هالیوود نمی رسند.

رئیس FLI، مکس تگمارک، در پاسخ به سوالی درباره این انتقاد گفت که خطرات کوتاه مدت و بلندمدت هوش مصنوعی باید جدی گرفته شود. “اگر به کسی استناد می کنیم، فقط به این معنی است که ادعا می کنیم آنها آن جمله را تایید می کنند. این به این معنا نیست که آنها نامه را تأیید می کنند یا ما هر چیزی را که آنها فکر می کنند تأیید می کنیم.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …