دیدگاه گاردین در ChatGPT: یک انسان بدجنس خوب | سرمقاله

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

پاحتمالا بهترین برنامه نرم افزاری برای جعل هویت انسان که تا کنون برای عموم منتشر شده است ChatGPT است. جذابیت آن چنان است که چند روز پس از راه اندازی آن در هفته گذشته، رئیس شرکت هوش مصنوعی پشت ربات چت، OpenAI، توییت کرد که 1 میلیون نفر وارد شده بودند. فیسبوک و اسپاتیفای ماه ها طول کشید تا این سطح از تعامل را به خود جلب کنند. جذابیت آن آشکار است: ChatGPT می‌تواند جوک بسازد، مقاله‌های کارشناسی بسازد و کدهای کامپیوتری را از یک دستور کوتاه نوشتن ایجاد کند.

هیچ چیز جدیدی در نرم افزاری که نثر روان و منسجم تولید می کند وجود ندارد. سلف ChatGPT، ترانسفورماتور پیش‌آموزشی 3 (GPT-3)، می‌تواند این کار را انجام دهد. هر دو بر روی حجم غیرقابل تصور زیادی از داده ها آموزش دیده بودند تا به سؤالات به روشی قابل باور پاسخ دهند. اما ChatGPT با داده‌های مربوط به “مکالمات” انسانی تنظیم شده است، که به طور قابل توجهی صداقت و آموزنده بودن پاسخ‌های آن را افزایش می‌دهد.

با این وجود، ChatGPT همچنان آنچه را که سازندگانش اذعان دارند «پاسخ‌هایی با صدای معقول اما نادرست یا بی‌معنی» تولید می‌کند. این ممکن است یک مشکل بزرگ در اینترنت باشد، زیرا بسیاری از پلتفرم‌های وب ابزار لازم برای محافظت از خود در برابر سیل محتوای تولید شده توسط هوش مصنوعی را ندارند. Stack Overflow، وب‌سایتی که در آن کاربران می‌توانند پاسخ سوالات برنامه‌نویسی را بیابند، پست‌های تولید شده توسط ChatGPT را ممنوع کرد، زیرا مدیران انسانی آن نمی‌توانستند با حجم پاسخ‌های باورپذیر اما اشتباه مقابله کنند. در کمین دادن ابزارهایی که می‌توان از آنها برای تولید انبوه اخبار جعلی و پیام‌های «ترولینگ و غم‌انگیز» استفاده کرد، خطراتی وجود دارد.

رها کردن ChatGPT این سوال را ایجاد می کند که آیا محتوای تولید شده پس از دسامبر 2022 واقعا قابل اعتماد است یا خیر. یک نویسنده انسانی در قبال کار خود به گونه ای مسئول است که هوش مصنوعی چنین نیست. هوش مصنوعی هوش مصنوعی نیست. ChatGPT نمی داند دارد چه می کند. نمی تواند بگوید که چگونه یا چرا پاسخ داده است. هیچ درکی از تجربه انسانی ندارد. و نمی توان تشخیص داد که منطقی است یا مزخرف. در حالی که OpenAI دارای تدابیری برای رد درخواست های نامناسب است، مانند اینکه به کاربران بگوید چگونه مرتکب جرم شوند، می توان آنها را دور زد. پتانسیل AI برای آسیب را نباید دست کم گرفت. در دستان اشتباه، می تواند یک سلاح کشتار جمعی باشد.

مقاله ای در سال جاری نشان داد که چه اتفاقی می تواند بیفتد زمانی که یک مدل یادگیری ماشینی ساده به منظور از بین بردن سمیت دوباره برای جستجوی آن استفاده شود. ظرف چند ساعت 40000 ماده از جمله نه تنها گاز اعصاب VX بلکه سایر سلاح‌های شیمیایی شناخته شده و همچنین بسیاری از سموم بالقوه کاملاً جدید به دست آمد. استاکس نت، یک سلاح سایبری که توسط ایالات متحده و اسرائیل ساخته شد، بیش از یک دهه پیش برای خرابکاری سانتریفیوژهای مورد استفاده برنامه هسته ای ایران استفاده شد. هیچ کس نمی داند اگر مهندسان نرم افزار آینده خودشان برنامه های نرم افزاری باشند، چه اتفاقی برای چنین فناوری هایی خواهد افتاد.

GPT-3 نمی‌توانست خطی از کد بنویسد و OpenAI آن را تغییر داد تا نرم‌افزاری به نام Codex ایجاد کند. هنگامی که دانشمندان کامپیوتر Codex را در کنار دانش‌آموزان سال اول وارد امتحان کردند، این نرم‌افزار از اکثر همتایان انسانی خود بهتر عمل کرد. محققان OpenAI هشدار داده اند: “نظارت و هوشیاری انسانی مورد نیاز است.” این دستور باید برای ChatGPT نیز اعمال شود. اتحادیه اروپا راه طولانی را برای محافظت از شهروندان در برابر استفاده های بالقوه مضر هوش مصنوعی طی کرده است. رویکرد بریتانیا، تا کنون، اندکی را ارائه می‌کند – زیرا داستان علمی تخیلی به واقعیت علمی تبدیل می‌شود.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …