به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
پاحتمالا بهترین برنامه نرم افزاری برای جعل هویت انسان که تا کنون برای عموم منتشر شده است ChatGPT است. جذابیت آن چنان است که چند روز پس از راه اندازی آن در هفته گذشته، رئیس شرکت هوش مصنوعی پشت ربات چت، OpenAI، توییت کرد که 1 میلیون نفر وارد شده بودند. فیسبوک و اسپاتیفای ماه ها طول کشید تا این سطح از تعامل را به خود جلب کنند. جذابیت آن آشکار است: ChatGPT میتواند جوک بسازد، مقالههای کارشناسی بسازد و کدهای کامپیوتری را از یک دستور کوتاه نوشتن ایجاد کند.
هیچ چیز جدیدی در نرم افزاری که نثر روان و منسجم تولید می کند وجود ندارد. سلف ChatGPT، ترانسفورماتور پیشآموزشی 3 (GPT-3)، میتواند این کار را انجام دهد. هر دو بر روی حجم غیرقابل تصور زیادی از داده ها آموزش دیده بودند تا به سؤالات به روشی قابل باور پاسخ دهند. اما ChatGPT با دادههای مربوط به “مکالمات” انسانی تنظیم شده است، که به طور قابل توجهی صداقت و آموزنده بودن پاسخهای آن را افزایش میدهد.
با این وجود، ChatGPT همچنان آنچه را که سازندگانش اذعان دارند «پاسخهایی با صدای معقول اما نادرست یا بیمعنی» تولید میکند. این ممکن است یک مشکل بزرگ در اینترنت باشد، زیرا بسیاری از پلتفرمهای وب ابزار لازم برای محافظت از خود در برابر سیل محتوای تولید شده توسط هوش مصنوعی را ندارند. Stack Overflow، وبسایتی که در آن کاربران میتوانند پاسخ سوالات برنامهنویسی را بیابند، پستهای تولید شده توسط ChatGPT را ممنوع کرد، زیرا مدیران انسانی آن نمیتوانستند با حجم پاسخهای باورپذیر اما اشتباه مقابله کنند. در کمین دادن ابزارهایی که میتوان از آنها برای تولید انبوه اخبار جعلی و پیامهای «ترولینگ و غمانگیز» استفاده کرد، خطراتی وجود دارد.
رها کردن ChatGPT این سوال را ایجاد می کند که آیا محتوای تولید شده پس از دسامبر 2022 واقعا قابل اعتماد است یا خیر. یک نویسنده انسانی در قبال کار خود به گونه ای مسئول است که هوش مصنوعی چنین نیست. هوش مصنوعی هوش مصنوعی نیست. ChatGPT نمی داند دارد چه می کند. نمی تواند بگوید که چگونه یا چرا پاسخ داده است. هیچ درکی از تجربه انسانی ندارد. و نمی توان تشخیص داد که منطقی است یا مزخرف. در حالی که OpenAI دارای تدابیری برای رد درخواست های نامناسب است، مانند اینکه به کاربران بگوید چگونه مرتکب جرم شوند، می توان آنها را دور زد. پتانسیل AI برای آسیب را نباید دست کم گرفت. در دستان اشتباه، می تواند یک سلاح کشتار جمعی باشد.
مقاله ای در سال جاری نشان داد که چه اتفاقی می تواند بیفتد زمانی که یک مدل یادگیری ماشینی ساده به منظور از بین بردن سمیت دوباره برای جستجوی آن استفاده شود. ظرف چند ساعت 40000 ماده از جمله نه تنها گاز اعصاب VX بلکه سایر سلاحهای شیمیایی شناخته شده و همچنین بسیاری از سموم بالقوه کاملاً جدید به دست آمد. استاکس نت، یک سلاح سایبری که توسط ایالات متحده و اسرائیل ساخته شد، بیش از یک دهه پیش برای خرابکاری سانتریفیوژهای مورد استفاده برنامه هسته ای ایران استفاده شد. هیچ کس نمی داند اگر مهندسان نرم افزار آینده خودشان برنامه های نرم افزاری باشند، چه اتفاقی برای چنین فناوری هایی خواهد افتاد.
GPT-3 نمیتوانست خطی از کد بنویسد و OpenAI آن را تغییر داد تا نرمافزاری به نام Codex ایجاد کند. هنگامی که دانشمندان کامپیوتر Codex را در کنار دانشآموزان سال اول وارد امتحان کردند، این نرمافزار از اکثر همتایان انسانی خود بهتر عمل کرد. محققان OpenAI هشدار داده اند: “نظارت و هوشیاری انسانی مورد نیاز است.” این دستور باید برای ChatGPT نیز اعمال شود. اتحادیه اروپا راه طولانی را برای محافظت از شهروندان در برابر استفاده های بالقوه مضر هوش مصنوعی طی کرده است. رویکرد بریتانیا، تا کنون، اندکی را ارائه میکند – زیرا داستان علمی تخیلی به واقعیت علمی تبدیل میشود.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.