به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،
مدیر عامل OpenAI، شرکتی که مسئول ایجاد ربات چت هوش مصنوعی ChatGPT و تولید کننده تصویر Dall-E 2 است، روز سهشنبه هنگام شهادت در مقابل یک کمیته قضایی سنا گفت: «تنظیم AI ضروری است».
سام آلتمن در اولین حضور خود در مقابل کنگره گفت که از نردههای محافظ نظارتی برای فناوری پشتیبانی میکند که مزایای هوش مصنوعی را در عین به حداقل رساندن مضرات ممکن میسازد.
آلتمن در اظهارات آماده شده خود گفت: “ما فکر می کنیم که مداخله نظارتی دولت ها برای کاهش خطرات مدل های قدرتمندتر بسیار مهم است.” به عنوان مثال، دولت ایالات متحده ممکن است الزامات مجوز و آزمایش را برای توسعه و انتشار مدلهای هوش مصنوعی بالاتر از حد آستانه در نظر بگیرد.»
آلتمن گفت که در حالی که این شرکت در حال ساخت ابزارهایی است که «یک روز به ما کمک میکند تا اکتشافات جدید انجام دهیم و به برخی از بزرگترین چالشهای بشری مانند تغییرات آب و هوایی و درمان سرطان رسیدگی کنیم، اما سیستمهای فعلی هنوز قادر به انجام این کارها نیستند.
او همچنین گفت که در حالی که او معتقد است مزایای ابزارهای به کار گرفته شده تا کنون “به شدت بیشتر از خطرات است”، این شرکت آزمایش های گسترده ای انجام می دهد و سیستم های ایمنی و نظارت قوی را قبل از انتشار هر سیستم جدیدی اجرا می کند. آلتمن گفت: «اطمینان از ایمنی آنها برای کار ما حیاتی است.
آلتمن میگوید: «OpenAI بر این باور بنا شد که هوش مصنوعی میتواند تقریباً جنبههای زندگی ما را بهبود بخشد، اما همچنین خطرات جدی ایجاد میکند که برای مدیریت آن باید با هم کار کنیم.»
سناتورهای جاش هاولی و ریچارد بلومنتال می گویند این جلسه تنها اولین گام برای درک این فناوری است. هاولی گفت که این فناوری به شیوههایی که ما حتی نمیتوانیم تصورش را بکنیم متحول خواهد شد و پیامدهایی برای انتخابات، مشاغل و امنیت آمریکاییها خواهد داشت.
بلومنتال جلسه را با پخش یک مقدمه صوتی در صدای خود آغاز کرد. صدای ضبط شده ای که Blumenthal پخش کرد، گفت: “بسیار اوقات ما دیده ایم که وقتی فناوری از مقررات پیشی می گیرد چه اتفاقی می افتد.” “بهره برداری افسار گسیخته از داده های شخصی… ما دیدیم که چگونه سوگیری های الگوریتمی می تواند تبعیض و تعصب را تداوم بخشد… این آینده ای نیست که ما می خواهیم.” اما در واقع این صدای بلومنتال نبود.
بلومنتال گفت: «صوت یک نرمافزار شبیهسازی صدای هوش مصنوعی بود که در سخنرانیهای من آموزش داده شد و اظهارات توسط ChatGPT نوشته شد، زمانی که از آن پرسیده شد که چگونه این جلسه را باز کنم.
بلومنتال گفت که میداند جامعه در آستانه یک دوره جدید است و آنچه را که به عنوان «وعدههای» این فناوری از جمله «درمان سرطان، توسعه درک جدید از فیزیک و زیستشناسی، یا مدلسازی آب و هوا و آبوهوا» توصیف میکند، خواند. او همچنین آلتمن را به خاطر جلب توجه به مشکلات این فناوری تحسین کرد.
خطرات احتمالی بلومنتال گفت که او نگران آن است شامل جعلیات عمیق، اطلاعات نادرست مسلحانه، تبعیض در مسکن، آزار و اذیت زنان و کلاهبرداری جعل هویت. او گفت: “برای من، شاید بزرگترین کابوس، انقلاب صنعتی جدید در حال پیشروی، آواره شدن میلیون ها کارگر باشد.”
کارشناسان مشهور و معتبر هوش مصنوعی و اخلاق مداران از جمله محققین سابق گوگل، دکتر تیمنیت گبرو، که رهبری تیم هوش مصنوعی اخلاقی این شرکت را برعهده داشتند، و مردیث ویتاکر زنگ خطر را در مورد پذیرش سریع این فناوری به صدا درآورده اند و می گویند که این فناوری بیش از حد تبلیغاتی است و وجود دارد. یک کالای اجتماعی ذاتی نیست که فناوری به تحقق آن کمک کند.
ویتاکر، در حال حاضر، گفت: «آنچه واقعاً هست، یک موتور احتمالی است که برای تفکیک چیزهایی طراحی شده است که قابل قبول به نظر میرسند، بر اساس پیشبینی اینکه چگونه باید به نظر برسد و بر اساس مقادیر انبوهی از دادههای نظارت مؤثر است که از وب حذف شده است». رئیس برنامه پیامرسانی ایمن Signal، در یک گزارش گفت مصاحبه در ملاقات با مطبوعات.
ویتاکر گفت که توسعه مدلهای زبان بزرگی که ChatGPT و محصولات مشابه را تقویت میکنند نیز عمدتاً در دست همان شرکتهایی است که در حال حاضر بر صنعت فناوری تسلط دارند و پویایی قدرت موجود را تقویت میکنند.
او ادامه داد: «تنها تعداد انگشت شماری از شرکتها در جهان وجود دارند که ترکیبی از دادهها و قدرت زیرساختی را برای ایجاد آنچه ما هوش مصنوعی مینامیم از دماغه تا دم دارند.» «این خطر قدرت متمرکز و قدرت متمرکزی است که توانایی فوقالعادهای در شکل دادن به چشمانداز اجتماعی و سیاسی ما دارد. ما اکنون در موقعیتی هستیم که این فناوری بیش از حد در حال ایجاد، توزیع و در نهایت شکلدهی است تا در خدمت منافع اقتصادی همین تعداد انگشت شماری از بازیگران باشد.»
او گفت: “بنابراین این ایده که این به طور جادویی به منبع خوبی اجتماعی تبدیل می شود یا اینکه این یک ماده طبیعی است که همه ما توانایی استفاده یکسان از آن را داریم، به سادگی درست نیست.” “این یک خیال است برای بازاریابی این برنامه ها.”
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.