به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
بیش از 1000 کارشناس، محقق و حامی هوش مصنوعی به یک فراخوان برای توقف فوری ایجاد هوش مصنوعی غول پیکر برای حداقل شش ماه ملحق شده اند، بنابراین می توان توانایی ها و خطرات سیستم هایی مانند GPT-4 را به درستی مطالعه کرد و کاهش یافته است.
این تقاضا در نامه ای سرگشاده به امضای بازیگران اصلی هوش مصنوعی از جمله ایلان ماسک، که یکی از بنیانگذاران OpenAI، آزمایشگاه تحقیقاتی مسئول ChatGPT و GPT-4 است، ارائه شده است. عماد مستقی که مستقر در لندن استیبل AI را تأسیس کرد. و استیو وزنیاک، یکی از بنیانگذاران اپل.
امضاکنندگان آن همچنین شامل مهندسانی از دیپ مایند، مایکروسافت، متا، گوگل و آمازون و همچنین دانشگاهیان از جمله دانشمند شناختی گری مارکوس هستند.
در این نامه آمده است: «ماههای اخیر شاهد بودیم که آزمایشگاههای هوش مصنوعی در مسابقهای خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس – حتی سازندگان آنها – نمیتوانند آنها را درک، پیشبینی یا بهطور قابل اعتماد کنترل کنند، قفل کردهاند. سیستمهای هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل مدیریت خواهد بود.»
نویسندگان، با هماهنگی اندیشکده «طولانمدت» مؤسسه آینده زندگی، از سام آلتمن، یکی از بنیانگذاران OpenAI در توجیه تماسهای خود استناد میکنند. آلتمن در پستی از فوریه نوشت: «در برخی مواقع، ممکن است مهم باشد که قبل از شروع آموزش سیستمهای آینده، بازبینی مستقل دریافت کنیم، و برای پیشرفتهترین تلاشها برای توافق بر سر محدود کردن نرخ رشد محاسباتی که برای ایجاد مدلهای جدید استفاده میشود، مهم باشد. “
نامه ادامه می دهد: “ما موافقیم.” “این نقطه اکنون است.”
به گفته نویسندگان، اگر محققان داوطلبانه کار خود را روی مدلهای هوش مصنوعی قدرتمندتر از GPT-4، معیار نامه برای مدلهای «غولپیکر» متوقف نکنند، «دولتها باید وارد عمل شوند».
آنها می افزایند: «این به معنای توقف توسعه هوش مصنوعی به طور کلی نیست، بلکه صرفاً یک عقب نشینی از مسابقه خطرناک به سمت مدل های جعبه سیاه غیرقابل پیش بینی بزرگتر با قابلیت های نوظهور است.
از زمان انتشار GPT-4، OpenAI قابلیتهایی را با «افزونهها» به سیستم هوش مصنوعی اضافه کرده است که به آن امکان جستجوی دادهها در وب باز، برنامهریزی تعطیلات و حتی سفارش مواد غذایی را میدهد. اما این شرکت باید با “فراز توانایی” مقابله کند: این موضوع که سیستم های خود قدرتمندتر از آن چیزی است که در زمان عرضه می داند.
از آنجایی که محققان در هفتهها و ماههای آینده با GPT-4 آزمایش میکنند، احتمالاً راههای جدیدی را برای «تغییر» سیستم کشف میکنند که توانایی آن را برای حل مشکلات دشوار بهبود میبخشد. یکی از کشفیات اخیر این بود که هوش مصنوعی در پاسخ به سوالات به طور قابل توجهی دقیق تر است، اگر ابتدا به او گفته شود که این کار را به سبک یک متخصص آگاه انجام دهد.
درخواست برای مقررات سختگیرانه در تضاد کامل با کتاب سفید مقررات مربوط به هوش مصنوعی دولت بریتانیا است که در روز چهارشنبه منتشر شد، که اصلاً دارای اختیارات جدیدی نیست. در عوض، دولت میگوید، تمرکز بر هماهنگی تنظیمکنندههای موجود مانند سازمان رقابت و بازار و مدیر اجرایی سلامت و ایمنی است و پنج «اصل» را ارائه میکند که از طریق آن باید به هوش مصنوعی فکر کنند.
میشل دونلان، وزیر علوم، نوآوری و فناوری گفت: «رویکرد جدید ما بر اساس اصول قوی استوار است تا مردم بتوانند به کسبوکارها برای رها کردن این فناوری فردا اعتماد کنند.
مؤسسه Ada Lovelace از جمله کسانی بود که از این اطلاعیه انتقاد کرد. مایکل بیرتویستل، سرپرست داده ها و قوانین و سیاست های هوش مصنوعی در این اندیشکده، گفت: «رویکرد بریتانیا دارای شکاف های قابل توجهی است که می تواند آسیب ها را برطرف کند، و نسبت به فوریت و مقیاس چالش ضعیف است.
زمانی که سیستمهای هوش مصنوعی از موتورهای جستجو گرفته تا نرمافزارهای آفیس با سرعت در حال ادغام شدن در زندگی روزمره ما هستند، جدول زمانی یک ساله یا بیشتر دولت برای اجرا، خطرات را نادیده میگیرد.
حزب کارگر به انتقادات پیوست و لوسی پاول، وزیر فرهنگ در سایه، دولت را متهم کرد که “طرف معامله آنها را نادیده می گیرد”.
او گفت: «این مقررات ماهها طول میکشد تا سالها اجرایی شود.» در همین حال ChatGPT، Bard گوگل و بسیاری دیگر هوش مصنوعی را به بخشی منظم از زندگی روزمره ما تبدیل می کنند.
“دولت در معرض خطر تقویت مجدد شکاف ها در سیستم نظارتی موجود ما است و سیستم را برای کسب و کارها و شهروندان بسیار پیچیده می کند، همزمان با تضعیف این پایه ها از طریق صورتحساب داده های آتی.”
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.