به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،
جولیان هیل، نماینده حزب کارگر فدرال، از آنچه که تصور میشود اولین سخنرانی پارلمان استرالیا است که بخشی از آن توسط ChatGPT نوشته شده است، استفاده کرده است تا هشدار دهد که هوش مصنوعی میتواند برای «تخریبجمعی» استفاده شود.
روز دوشنبه، عضو بروس خواستار یک برگه سفید یا تحقیق برای در نظر گرفتن “خطرات و مزایای” هوش مصنوعی شد و هشدار داد که ممکن است منجر به تقلب دانشآموز، از دست دادن شغل، تبعیض، اطلاعات نادرست و برنامههای نظامی غیرقابل کنترل شود.
هیل از دستورات ChatGPT از جمله «لطفاً گزارشهای اخیر رسانهها در مورد دانشآموزانی که از هوش مصنوعی در استرالیا برای تقلب استفاده میکنند خلاصه کنید و توضیح دهید که چرا معلمان در این مورد نگران هستند» و «در عرض 2 دقیقه خطرات و مزایای هوش مصنوعی برای استرالیا را توضیح دهید» برای نوشتن بخشهایی از سخنرانی.
با افزایش استفاده از نرم افزار هوش مصنوعی مبتنی بر متن، نیو ساوت ولز و کوئینزلند استفاده از آن را در مدارس ممنوع کرده اند.
این نماینده مجلس ویکتوریا به مجلس نمایندگان گفت که «اخیراً گزارشهایی در رسانهها مبنی بر استفاده دانشآموزان در استرالیا از هوش مصنوعی برای تقلب در امتحانات منتشر شده است».
«فناوری هوش مصنوعی، مانند نرمافزار هوشمندی که میتواند مقاله بنویسد و پاسخ تولید کند، برای دانشآموزان در دسترستر میشود و به آنها اجازه میدهد تکالیف و تستها را بدون درک واقعی مطالبی که باعث نگرانی معلمان میشود، انجام دهند، زیرا نگران تأثیر آن بر یکپارچگی هستند. نظام آموزشی» گفت.
هیل همچنین هشدار داد که دانشآموزان میتوانند «به طور مؤثر فرآیند آموزشی را دور بزنند و مزیت ناعادلانهای به دست آورند» در حالی که معلمان قادر به «شناسایی و رسیدگی به تقلب» نیستند – قبل از افشای «باید اعتراف کنم که آن را ننوشتهام».
در واقع هیچ انسانی این را ننوشته است. مدل زبان بزرگ هوش مصنوعی ChatGPT این را نوشت.
در بخش دیگری که توسط ChatGPT نوشته شده است، هیل در مورد “پتانسیل از دست دادن شغل” هشدار داد که هوش عمومی مصنوعی “می تواند تعصبات و تبعیض های موجود را تداوم بخشد” و “می تواند برای اهداف مخرب مانند حملات سایبری و کمپین های اطلاعات نادرست استفاده شود”.
ChatGPT همچنین مزایای احتمالی مانند «پتانسیل هوش مصنوعی برای متحول کردن بسیاری از صنایع، از جمله مراقبتهای بهداشتی، حملونقل و امور مالی با افزایش کارایی، کاهش هزینهها و بهبود تصمیمگیری» را ارائه کرد.
هیل، برجستهترین سیاستمدار استرالیا در برنامه رسانههای اجتماعی TikTok، به آرامی مخالفان لیبرال را با پیشنهاد اینکه از ChatGPT بپرسند «آیا تغییرات آبوهوایی واقعی است؟» را فریب داد. و “ما برای چه چیزی ایستاده ایم؟”.
هیل در بخشهایی که نوشت، هشدار داد که هوش عمومی مصنوعی خطراتی را به همراه دارد که میتواند «مخرب، فاجعهبار و وجودی» باشد.
“[Artificial general intelligence] این پتانسیل را دارد که جهان ما را به گونهای که ما نمیتوانیم تصور کنیم، متحول کند، اما اگر AGI از هوش انسانی پیشی بگیرد، اگر اهداف و انگیزههای آن با اهداف ما همسو نباشد، میتواند آسیب قابل توجهی به بشریت وارد کند.»
اگر انسانها قبل از یک انفجار اطلاعاتی موفق به کنترل AGI شوند، میتواند علم، اقتصاد، محیط و جامعه ما را با پیشرفتهایی در هر زمینهای از تلاشهای انسانی متحول کند.
اما خطری که به طور فزایندهای باعث نگرانی افراد بسیار باهوشتر از من میشود، بعید است که انسانها بتوانند AGI را کنترل کنند، یا اینکه یک بازیگر بدخواه ممکن است هوش مصنوعی را برای کشتار جمعی مهار کند.
هیل گفت که «به طور فزایندهای» دانشمندانی که خطرات را ارزیابی میکنند، هوش مصنوعی را بر «سیارکها، تغییرات آب و هوایی فراری، ابرآتشفشانها، شعلههای خورشیدی ویرانگر هستهای یا بیماریهای همهگیر با مرگ و میر بالا» ترجیح میدهند.
او گفت که هوش مصنوعی این پتانسیل را دارد که «جنگ را آنطور که ما می شناسیم تغییر دهد» که پیامدهای «جدی» برای امنیت ملی دارد.
اگر AGI از هوش انسانی پیشی بگیرد، می تواند تهدیدی برای ارتش ما باشد و به طور بالقوه قابلیت های دفاعی فعلی ما را منسوخ کند.
هیل گفت که «همانطور که جهان – در نهایت و با تأخیر – شروع به اقدام جمعی در مورد تغییرات آب و هوا کرده است، ما نیز باید اقدام جمعی خود را با هم و فوراً در مورد AGI انجام دهیم».
بسیاری فکر می کنند که چالش های اقدام جمعی در مورد AGI در سراسر کشورها با تلاش های چندین دهه در زمینه منع گسترش سلاح های هسته ای یا توافق نامه های بین المللی آب و هوا قابل مقایسه است. پس باید از همین الان شروع کنیم.»
هیل خواستار یک «اندیشه سیاست هماهنگ، جدی و فوری» شد که از سال 2023 شروع میشود، مانند یک کاغذ سفید، یک تحقیق، یک کمیسیون دائمی، یک همکاری بینالمللی یا ترکیبی از آنها.
در سال 2021، پروفسور استوارت راسل، بنیانگذار مرکز هوش مصنوعی سازگار با انسان در دانشگاه کالیفرنیا، برکلی، به آبان نیوز گفت که کارشناسان از پیشرفت هوش مصنوعی «هراسان» هستند و آن را با توسعه بمب اتمی مقایسه کردند و باعث شد خواستار مقررات بیشتر است.
در سال 2014، ایلان ماسک، بنیانگذار تسلا، خواستار تنظیم هوش مصنوعی شد و هشدار داد که آن را جدی ترین تهدید برای بقای نسل بشر می داند.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.