نماینده پارلمان استرالیا به پارلمان استرالیا می‌گوید که هوش مصنوعی می‌تواند برای «تخریب‌جمعی» در سخنرانی بخشی نوشته شده توسط ChatGPT استفاده شود | سیاست استرالیا

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،

جولیان هیل، نماینده حزب کارگر فدرال، از آنچه که تصور می‌شود اولین سخنرانی پارلمان استرالیا است که بخشی از آن توسط ChatGPT نوشته شده است، استفاده کرده است تا هشدار دهد که هوش مصنوعی می‌تواند برای «تخریب‌جمعی» استفاده شود.

روز دوشنبه، عضو بروس خواستار یک برگه سفید یا تحقیق برای در نظر گرفتن “خطرات و مزایای” هوش مصنوعی شد و هشدار داد که ممکن است منجر به تقلب دانش‌آموز، از دست دادن شغل، تبعیض، اطلاعات نادرست و برنامه‌های نظامی غیرقابل کنترل شود.

هیل از دستورات ChatGPT از جمله «لطفاً گزارش‌های اخیر رسانه‌ها در مورد دانش‌آموزانی که از هوش مصنوعی در استرالیا برای تقلب استفاده می‌کنند خلاصه کنید و توضیح دهید که چرا معلمان در این مورد نگران هستند» و «در عرض 2 دقیقه خطرات و مزایای هوش مصنوعی برای استرالیا را توضیح دهید» برای نوشتن بخش‌هایی از سخنرانی.

با افزایش استفاده از نرم افزار هوش مصنوعی مبتنی بر متن، نیو ساوت ولز و کوئینزلند استفاده از آن را در مدارس ممنوع کرده اند.

این نماینده مجلس ویکتوریا به مجلس نمایندگان گفت که «اخیراً گزارش‌هایی در رسانه‌ها مبنی بر استفاده دانش‌آموزان در استرالیا از هوش مصنوعی برای تقلب در امتحانات منتشر شده است».

«فناوری هوش مصنوعی، مانند نرم‌افزار هوشمندی که می‌تواند مقاله بنویسد و پاسخ تولید کند، برای دانش‌آموزان در دسترس‌تر می‌شود و به آن‌ها اجازه می‌دهد تکالیف و تست‌ها را بدون درک واقعی مطالبی که باعث نگرانی معلمان می‌شود، انجام دهند، زیرا نگران تأثیر آن بر یکپارچگی هستند. نظام آموزشی» گفت.

هیل همچنین هشدار داد که دانش‌آموزان می‌توانند «به طور مؤثر فرآیند آموزشی را دور بزنند و مزیت ناعادلانه‌ای به دست آورند» در حالی که معلمان قادر به «شناسایی و رسیدگی به تقلب» نیستند – قبل از افشای «باید اعتراف کنم که آن را ننوشته‌ام».

در واقع هیچ انسانی این را ننوشته است. مدل زبان بزرگ هوش مصنوعی ChatGPT این را نوشت.

در بخش دیگری که توسط ChatGPT نوشته شده است، هیل در مورد “پتانسیل از دست دادن شغل” هشدار داد که هوش عمومی مصنوعی “می تواند تعصبات و تبعیض های موجود را تداوم بخشد” و “می تواند برای اهداف مخرب مانند حملات سایبری و کمپین های اطلاعات نادرست استفاده شود”.

ChatGPT همچنین مزایای احتمالی مانند «پتانسیل هوش مصنوعی برای متحول کردن بسیاری از صنایع، از جمله مراقبت‌های بهداشتی، حمل‌ونقل و امور مالی با افزایش کارایی، کاهش هزینه‌ها و بهبود تصمیم‌گیری» را ارائه کرد.

هیل، برجسته‌ترین سیاستمدار استرالیا در برنامه رسانه‌های اجتماعی TikTok، به آرامی مخالفان لیبرال را با پیشنهاد اینکه از ChatGPT بپرسند «آیا تغییرات آب‌وهوایی واقعی است؟» را فریب داد. و “ما برای چه چیزی ایستاده ایم؟”.

هیل در بخش‌هایی که نوشت، هشدار داد که هوش عمومی مصنوعی خطراتی را به همراه دارد که می‌تواند «مخرب، فاجعه‌بار و وجودی» باشد.

“[Artificial general intelligence] این پتانسیل را دارد که جهان ما را به گونه‌ای که ما نمی‌توانیم تصور کنیم، متحول کند، اما اگر AGI از هوش انسانی پیشی بگیرد، اگر اهداف و انگیزه‌های آن با اهداف ما همسو نباشد، می‌تواند آسیب قابل توجهی به بشریت وارد کند.»

اگر انسان‌ها قبل از یک انفجار اطلاعاتی موفق به کنترل AGI شوند، می‌تواند علم، اقتصاد، محیط و جامعه ما را با پیشرفت‌هایی در هر زمینه‌ای از تلاش‌های انسانی متحول کند.

از تبلیغات قبلی خبرنامه رد شوید

اما خطری که به طور فزاینده‌ای باعث نگرانی افراد بسیار باهوش‌تر از من می‌شود، بعید است که انسان‌ها بتوانند AGI را کنترل کنند، یا اینکه یک بازیگر بدخواه ممکن است هوش مصنوعی را برای کشتار جمعی مهار کند.

هیل گفت که «به طور فزاینده‌ای» دانشمندانی که خطرات را ارزیابی می‌کنند، هوش مصنوعی را بر «سیارک‌ها، تغییرات آب و هوایی فراری، ابرآتش‌فشان‌ها، شعله‌های خورشیدی ویرانگر هسته‌ای یا بیماری‌های همه‌گیر با مرگ و میر بالا» ترجیح می‌دهند.

او گفت که هوش مصنوعی این پتانسیل را دارد که «جنگ را آنطور که ما می شناسیم تغییر دهد» که پیامدهای «جدی» برای امنیت ملی دارد.

اگر AGI از هوش انسانی پیشی بگیرد، می تواند تهدیدی برای ارتش ما باشد و به طور بالقوه قابلیت های دفاعی فعلی ما را منسوخ کند.

هیل گفت که «همانطور که جهان – در نهایت و با تأخیر – شروع به اقدام جمعی در مورد تغییرات آب و هوا کرده است، ما نیز باید اقدام جمعی خود را با هم و فوراً در مورد AGI انجام دهیم».

بسیاری فکر می کنند که چالش های اقدام جمعی در مورد AGI در سراسر کشورها با تلاش های چندین دهه در زمینه منع گسترش سلاح های هسته ای یا توافق نامه های بین المللی آب و هوا قابل مقایسه است. پس باید از همین الان شروع کنیم.»

هیل خواستار یک «اندیشه سیاست هماهنگ، جدی و فوری» شد که از سال 2023 شروع می‌شود، مانند یک کاغذ سفید، یک تحقیق، یک کمیسیون دائمی، یک همکاری بین‌المللی یا ترکیبی از آنها.

در سال 2021، پروفسور استوارت راسل، بنیانگذار مرکز هوش مصنوعی سازگار با انسان در دانشگاه کالیفرنیا، برکلی، به آبان نیوز گفت که کارشناسان از پیشرفت هوش مصنوعی «هراسان» هستند و آن را با توسعه بمب اتمی مقایسه کردند و باعث شد خواستار مقررات بیشتر است.

در سال 2014، ایلان ماسک، بنیانگذار تسلا، خواستار تنظیم هوش مصنوعی شد و هشدار داد که آن را جدی ترین تهدید برای بقای نسل بشر می داند.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …