به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
بریتانیا و ایالات متحده در رقابت برای توسعه فناوری هوش مصنوعی قویتر مداخله کردهاند، زیرا ناظر رقابت بریتانیا بازبینی این بخش را آغاز کرد و کاخ سفید به شرکتهای فناوری توصیه کرد که مسئولیت اساسی خود را برای توسعه محصولات ایمن داشته باشند.
رگولاتورها تحت فشار فزاینده ای برای مداخله هستند، زیرا ظهور زبان های مبتنی بر هوش مصنوعی مانند ChatGPT نگرانی هایی را در مورد انتشار احتمالی اطلاعات نادرست، افزایش کلاهبرداری و تأثیر آن بر بازار کار ایجاد می کند، به طوری که ایلان ماسک در میان نزدیک به 30000 امضا کننده نامه ای را به همراه دارد. ماه گذشته منتشر شد و خواستار توقف پروژه های مهم شد.
سازمان رقابت و بازار بریتانیا (CMA) روز پنجشنبه اعلام کرد که سیستمهای زیربنایی – یا مدلهای پایه – پشت ابزارهای هوش مصنوعی را بررسی خواهد کرد. بررسی اولیه که توسط یک کارشناس حقوقی به عنوان یک “هشدار قبلی” برای این بخش توصیف شده است، یافته های خود را در سپتامبر منتشر خواهد کرد.
در همان روز، دولت ایالات متحده اقداماتی را برای مقابله با خطرات توسعه هوش مصنوعی اعلام کرد، زیرا کامالا هریس، معاون رئیس جمهور، با مدیران اجرایی در خط مقدم پیشرفت های سریع صنعت ملاقات کرد. کاخ سفید در بیانیهای اعلام کرد شرکتهایی که این فناوری را توسعه میدهند “مسئولیت اساسی برای اطمینان از ایمن بودن محصولاتشان قبل از استقرار یا عمومی شدن” دارند.
این جلسه یک هفته را به پایان رساند که طی آن تعدادی از دانشمندان و رهبران تجاری هشدارهایی را درباره سرعتی که این فناوری میتواند صنایع مستقر را مختل کند، صادر کردند. روز دوشنبه، جفری هینتون، به اصطلاح «پدرخوانده هوش مصنوعی»، گوگل را ترک کرد تا آزادانهتر در مورد خطرات این فناوری صحبت کند، در حالی که مشاور علمی دولت بریتانیا، سر پاتریک والنس، از وزرا خواست تا «پیشرفت» از تغییرات اجتماعی و اقتصادی عمیقی که می تواند توسط هوش مصنوعی ایجاد شود و می گوید تأثیر آن بر مشاغل می تواند به اندازه تأثیر انقلاب صنعتی باشد.
سارا کاردل گفت هوش مصنوعی این پتانسیل را دارد که شیوه رقابت کسبوکارها را تغییر دهد، اما باید از مصرفکنندگان محافظت کرد.
مدیر اجرایی CMA گفت: “هوش مصنوعی در چند ماه گذشته به آگاهی عمومی نفوذ کرده است، اما برای مدتی در رادار ما بوده است. بسیار مهم است که مزایای بالقوه این فناوری متحول کننده به راحتی برای مشاغل و مصرف کنندگان بریتانیا قابل دسترسی باشد در حالی که مردم در برابر مسائلی مانند اطلاعات نادرست یا گمراه کننده محافظت می شوند.
ChatGPT و سرویس رقیب Google Bard مستعد ارائه اطلاعات نادرست در پاسخ به درخواست های کاربران هستند، در حالی که نگرانی هایی در مورد کلاهبرداری های صوتی ایجاد شده توسط هوش مصنوعی مطرح شده است. سازمان ضد اطلاعات نادرست NewsGuard این هفته گفت که چت رباتهایی که وانمود میکنند روزنامهنگار هستند، تقریباً 50 مزرعه محتوای تولید شده توسط هوش مصنوعی را اجرا میکنند. ماه گذشته، آهنگی حاوی وکالهای جعلی تولید شده توسط هوش مصنوعی که ادعا میشد Drake and the Weeknd است، از سرویسهای پخش خارج شد.
بررسی CMA به بررسی این موضوع میپردازد که چگونه بازارهای مدلهای پایه میتوانند تکامل یابند، چه فرصتها و ریسکهایی برای مصرفکنندگان و رقابت وجود دارد، و «اصول راهنما» را برای حمایت از رقابت و حمایت از مصرفکنندگان تدوین میکند.
بازیگران پیشرو در هوش مصنوعی مایکروسافت، توسعه دهنده ChatGPT OpenAI – که مایکروسافت در آن سرمایه گذار است – و آلفابت مادر گوگل، که صاحب یک تجارت پیشرو در زمینه هوش مصنوعی در بریتانیا در DeepMind است، در حالی که استارت آپ های پیشرو هوش مصنوعی شامل Anthropic و Stability AI بریتانیایی هستند. شرکت پشت Stable Diffusion.
الکس هافنر، شریک رقابت در شرکت حقوقی Fladgate بریتانیا، گفت: «با توجه به جهت گیری سفرهای نظارتی در حال حاضر و این واقعیت که CMA تصمیم دارد منابعی را به این حوزه اختصاص دهد، اعلام آن باید به عنوان نوعی هشدار قبلی تلقی شود. در مورد توسعه تهاجمی برنامههای هوش مصنوعی بدون بررسی دقیق.»
در ایالات متحده، هریس با مدیران اجرایی OpenAI، Alphabet و Microsoft در کاخ سفید ملاقات کرد و اقداماتی را برای مقابله با خطرات توسعه کنترل نشده هوش مصنوعی بیان کرد.
دولت اعلام کرد که ۱۴۰ میلیون دلار (۱۱۱ میلیون پوند) در هفت موسسه ملی تحقیقاتی ملی هوش مصنوعی سرمایهگذاری خواهد کرد تا پیشرفتهای هوش مصنوعی را دنبال کند که «اخلاقی، قابل اعتماد، مسئولیتپذیر و در خدمت خیر عمومی هستند». توسعه هوش مصنوعی تحت سلطه بخش خصوصی است و صنعت فناوری در سال گذشته 32 مدل یادگیری ماشینی قابل توجه تولید کرد، در مقایسه با سه مدل تولید شده توسط دانشگاه.
توسعه دهندگان پیشرو هوش مصنوعی همچنین موافقت کرده اند که سیستم های آنها به طور عمومی در کنفرانس امنیت سایبری Defcon 31 امسال مورد ارزیابی قرار گیرد. شرکتهایی که موافقت کردهاند شامل OpenAI، Google، Microsoft و Stability AI هستند.
کاخ سفید گفت: «این تمرین مستقل اطلاعات مهمی را در مورد تأثیرات این مدلها در اختیار محققان و عموم قرار میدهد».
همچنین روز پنجشنبه به اتحادیه اروپا گفته شد که باید از تحقیقات مردمی هوش مصنوعی محافظت کند یا خطر واگذاری کنترل توسعه فناوری به شرکتهای آمریکایی را تهدید کند.
در نامهای سرگشاده که توسط گروه تحقیقاتی آلمانی Laion یا شبکه باز هوش مصنوعی در مقیاس بزرگ هماهنگ شده بود، به پارلمان اروپا گفته شد که قوانین یکاندازه برای همه خطر حذف تحقیق و توسعه باز را به همراه دارد.
«قوانینی که یک محقق یا توسعهدهنده را ملزم به نظارت یا کنترل استفاده پایین دستی میکند، میتواند انتشار AI منبع باز در اروپا را غیرممکن کند»، که «شرکتهای بزرگ را تثبیت میکند» و «تلاشها برای بهبود شفافیت، کاهش رقابت، محدود کردن آزادی آکادمیک را مختل میکند». و سرمایه گذاری در هوش مصنوعی در خارج از کشور را هدایت کنید.
«اروپا نمی تواند حق حاکمیت هوش مصنوعی را از دست بدهد. حذف تحقیق و توسعه منبع باز، جامعه علمی و اقتصاد اروپا را به شدت به چند شرکت خارجی و اختصاصی برای زیرساخت های ضروری هوش مصنوعی وابسته خواهد کرد.
بزرگترین تلاش های هوش مصنوعی، توسط شرکت هایی مانند OpenAI و Google، به شدت توسط سازندگان آنها کنترل می شود. برای مثال، دانلود مدل پشت ChatGPT غیرممکن است، و دسترسی پولی OpenAI که OpenAI برای مشتریان فراهم می کند، با تعدادی محدودیت قانونی و فنی در مورد نحوه استفاده از آن همراه است. در مقابل، تلاشهای منبع باز شامل ایجاد یک مدل و سپس انتشار آن برای هر کسی میشود تا آنطور که صلاح میداند استفاده، بهبود یا تطبیق دهد.
کریستف شوهمان، رهبر سازمانی در Laion گفت: «ما در حال کار روی هوش مصنوعی منبع باز هستیم، زیرا فکر میکنیم این نوع هوش مصنوعی ایمنتر، در دسترستر و دموکراتیکتر خواهد بود.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.