به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
‘آ یاوهگویی مطمئن که میتواند مزخرفات بسیار قانعکنندهای بنویسد: نه حذف یک دانشآموز آزاردهنده یا نخستوزیر سابق بریتانیا، بلکه توصیفی از یک برنامه نوشتن هوش مصنوعی که برای سازندگانش سردرد ایجاد میکند.
با افزایش ترس در دانشگاه ها در مورد یک چت ربات جدید هوش مصنوعی که می تواند مقالات قانع کننده بنویسد – حتی اگر برخی از حقایق که استفاده می کند کاملاً درست نباشند – شرکت سیلیکون ولی پشت ربات چت منتشر شده در ماه گذشته در حال رقابت برای “اثرانگشت” خروجی خود است تا از یک ربات جلوگیری کند. موج “AIgiarism” – یا سرقت علمی به کمک هوش مصنوعی.
ChatGPT، یک تولید کننده متن مبتنی بر هوش مصنوعی که در اوایل دسامبر برای استفاده عمومی منتشر شد، به دلیل کیفیت خروجی آن مورد تحسین و انتقاد قرار گرفته است. کاربران میتوانند از پرسشهای واقعی ساده («بلندترین کوه در بریتانیا چیست؟») تا درخواستهای پوچ («قانون آفساید» را بنویسید) و پاسخهای واضح و منسجمی را که به انگلیسی طبیعی نوشته شده است دریافت کنند.
مدیران و اساتید دانشگاه ابراز نگرانی کردهاند که ChatGPT، که میتواند پاسخهای انسانی قانعکنندهای به سؤالات امتحانی ارائه دهد، میتواند موجی از تقلب در تکالیف درسی و دروس امتحان را ایجاد کند.
اکنون، سازندگان ربات، OpenAI مستقر در سانفرانسیسکو، در تلاشند تا با “واترمارک کردن” خروجی ربات و تشخیص سرقت ادبی با خطر مقابله کنند.
در یک سخنرانی در دانشگاه تگزاس، محقق میهمان OpenAI، اسکات آرونسون، گفت که این شرکت در حال کار بر روی سیستمی برای مقابله با تقلب از طریق “آمارمارکی کردن خروجی ها” است. آرونسون گفت که این فناوری با تغییر نامحسوس در انتخاب کلمات انتخاب شده توسط ChatGPT کار می کند، به گونه ای که برای خواننده قابل توجه نباشد، اما برای هر کسی که به دنبال نشانه هایی از متن تولید شده توسط ماشین است، از نظر آماری قابل پیش بینی است.
آرونسون گفت: «ما میخواهیم گرفتن یک خروجی GPT و ارسال آن به گونهای که گویی از یک انسان است، بسیار سختتر باشد. بدیهی است که این می تواند برای جلوگیری از سرقت علمی آکادمیک مفید باشد، اما برای مثال، به عنوان مثال، تولید انبوه تبلیغات – می دانید، هر وبلاگ را با نظرات ظاهراً موضوعی که از حمله روسیه به اوکراین حمایت می کند، بدون حتی ساختمانی پر از ترول ها در مسکو، هرزنامه می فرستند. یا جعل سبک نوشتن کسی به منظور متهم کردن او.
آرونسون افزود: “ما در واقع یک نمونه اولیه از طرح واترمارکینگ داریم.” “به نظر می رسد که بسیار خوب کار می کند – از نظر تجربی، چند صد نفر [words] به نظر می رسد برای دریافت یک سیگنال معقول کافی است که بله، این متن از GPT آمده است.”
ربات کاملاً کار نمی کند. این تمایل به “توهم کردن” حقایقی دارد که کاملاً درست نیستند، که بندیکت ایوانز تحلیلگر فناوری آن را چنین توصیف کرد: “مثل یک دانشجوی کارشناسی که با اطمینان به سؤالی پاسخ می دهد که برای آن در هیچ سخنرانی شرکت نکرده است.” به نظر یک یاوه گوی مطمئن است که می تواند مزخرفات بسیار قانع کننده ای بنویسد.»
اما این فناوری مشتاقانه توسط آن دسته از دانشآموزان مورد استفاده قرار گرفته است، که باید با عجله یک مقاله قابل قبول تولید کند. خروجی ChatGPT تا این لحظه هیچ ردیاب مرسوم سرقت ادبی را راهاندازی نکرده است، زیرا متنی که آن تولید میکند قبلاً نوشته نشده است، و باعث میشود ارزیابان در تلاش برای یافتن چگونگی شناسایی متقلبان باشند.
از زمان انتشار ChatGPT، سازمانهای مختلف سیاستهای خاصی را علیه ارسال متن تولید شده توسط هوش مصنوعی بهعنوان کار خود وضع کردهاند. Stack Overflow، یک سایت پرسش و پاسخ که در کمک به برنامه نویسان در حل مشکلات کدنویسی تخصص دارد، کاربران را از ارسال پاسخ های نوشته شده توسط ChatGPT منع کرد. مدیران سایت نوشتند: “مشکل اصلی این است که در حالی که پاسخ هایی که ChatGPT تولید می کند دارای نرخ بالایی از نادرست بودن هستند، معمولاً به نظر می رسد که ممکن است خوب باشند و پاسخ ها بسیار آسان هستند.”
در مجموع، از آنجایی که میانگین نرخ دریافت پاسخ های صحیح از ChatGPT بسیار پایین است، ارسال پاسخ های ایجاد شده توسط ChatGPT به طور قابل ملاحظه ای برای سایت و کاربرانی که سؤال می کنند یا به دنبال پاسخ های صحیح هستند مضر است.
استفاده از ابزارهای هوش مصنوعی برای تولید نوشتاری که میتوان آن را بهعنوان نوشتههای خود به دیگران منتقل کرد، توسط سرمایهدار آمریکایی، پل گراهام، که همسرش، جسیکا لیوینگستون، یکی از حامیان OpenAI است، «AIgiarism» نامیده شد. گراهام در ماه دسامبر گفت: “من فکر می کنم قوانین علیه AIgiarism باید تقریباً مشابه قوانین علیه سرقت ادبی باشد.” «مشکل سرقت ادبی فقط این نیست که شما اعتبار را از شخص دیگری میگیرید، بلکه به دروغ آن را برای خودتان ادعا میکنید. مورد دوم هنوز در AIgiarism صادق است. و در واقع، مورد اول تا حدودی در مورد فناوری هوش مصنوعی فعلی نیز صادق است.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.