سرقت ادبی به کمک هوش مصنوعی؟ ربات ChatGPT می گوید که پاسخی برای آن دارد | چت ربات ها

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

‘آ یاوه‌گویی مطمئن که می‌تواند مزخرفات بسیار قانع‌کننده‌ای بنویسد: نه حذف یک دانش‌آموز آزاردهنده یا نخست‌وزیر سابق بریتانیا، بلکه توصیفی از یک برنامه نوشتن هوش مصنوعی که برای سازندگانش سردرد ایجاد می‌کند.

با افزایش ترس در دانشگاه ها در مورد یک چت ربات جدید هوش مصنوعی که می تواند مقالات قانع کننده بنویسد – حتی اگر برخی از حقایق که استفاده می کند کاملاً درست نباشند – شرکت سیلیکون ولی پشت ربات چت منتشر شده در ماه گذشته در حال رقابت برای “اثرانگشت” خروجی خود است تا از یک ربات جلوگیری کند. موج “AIgiarism” – یا سرقت علمی به کمک هوش مصنوعی.

ChatGPT، یک تولید کننده متن مبتنی بر هوش مصنوعی که در اوایل دسامبر برای استفاده عمومی منتشر شد، به دلیل کیفیت خروجی آن مورد تحسین و انتقاد قرار گرفته است. کاربران می‌توانند از پرسش‌های واقعی ساده («بلندترین کوه در بریتانیا چیست؟») تا درخواست‌های پوچ («قانون آفساید» را بنویسید) و پاسخ‌های واضح و منسجمی را که به انگلیسی طبیعی نوشته شده است دریافت کنند.

مدیران و اساتید دانشگاه ابراز نگرانی کرده‌اند که ChatGPT، که می‌تواند پاسخ‌های انسانی قانع‌کننده‌ای به سؤالات امتحانی ارائه دهد، می‌تواند موجی از تقلب در تکالیف درسی و دروس امتحان را ایجاد کند.

اکنون، سازندگان ربات، OpenAI مستقر در سانفرانسیسکو، در تلاشند تا با “واترمارک کردن” خروجی ربات و تشخیص سرقت ادبی با خطر مقابله کنند.

نشان‌واره OpenAI روی صفحه نمایش با وب‌سایت ChatGPT که در تلفن همراه نمایش داده می‌شود در این تصویر در بروکسل، بلژیک، در 12 دسامبر 2022 مشاهده می‌شود. OpenAI - ChatGPT - ChatBot Illustration، بروکسل، بلژیک - 12 دسامبر 2022
ChatGPT که در اوایل دسامبر منتشر شد، به دلیل کیفیت خروجی آن مورد تحسین و انتقاد قرار گرفته است. عکس: جاناتان راا/نورعکس/رکس/شاتراستاک

در یک سخنرانی در دانشگاه تگزاس، محقق میهمان OpenAI، اسکات آرونسون، گفت که این شرکت در حال کار بر روی سیستمی برای مقابله با تقلب از طریق “آمارمارکی کردن خروجی ها” است. آرونسون گفت که این فناوری با تغییر نامحسوس در انتخاب کلمات انتخاب شده توسط ChatGPT کار می کند، به گونه ای که برای خواننده قابل توجه نباشد، اما برای هر کسی که به دنبال نشانه هایی از متن تولید شده توسط ماشین است، از نظر آماری قابل پیش بینی است.

آرونسون گفت: «ما می‌خواهیم گرفتن یک خروجی GPT و ارسال آن به گونه‌ای که گویی از یک انسان است، بسیار سخت‌تر باشد. بدیهی است که این می تواند برای جلوگیری از سرقت علمی آکادمیک مفید باشد، اما برای مثال، به عنوان مثال، تولید انبوه تبلیغات – می دانید، هر وبلاگ را با نظرات ظاهراً موضوعی که از حمله روسیه به اوکراین حمایت می کند، بدون حتی ساختمانی پر از ترول ها در مسکو، هرزنامه می فرستند. یا جعل سبک نوشتن کسی به منظور متهم کردن او.

آرونسون افزود: “ما در واقع یک نمونه اولیه از طرح واترمارکینگ داریم.” “به نظر می رسد که بسیار خوب کار می کند – از نظر تجربی، چند صد نفر [words] به نظر می رسد برای دریافت یک سیگنال معقول کافی است که بله، این متن از GPT آمده است.”

ربات کاملاً کار نمی کند. این تمایل به “توهم کردن” حقایقی دارد که کاملاً درست نیستند، که بندیکت ایوانز تحلیلگر فناوری آن را چنین توصیف کرد: “مثل یک دانشجوی کارشناسی که با اطمینان به سؤالی پاسخ می دهد که برای آن در هیچ سخنرانی شرکت نکرده است.” به نظر یک یاوه گوی مطمئن است که می تواند مزخرفات بسیار قانع کننده ای بنویسد.»

اما این فناوری مشتاقانه توسط آن دسته از دانش‌آموزان مورد استفاده قرار گرفته است، که باید با عجله یک مقاله قابل قبول تولید کند. خروجی ChatGPT تا این لحظه هیچ ردیاب مرسوم سرقت ادبی را راه‌اندازی نکرده است، زیرا متنی که آن تولید می‌کند قبلاً نوشته نشده است، و باعث می‌شود ارزیابان در تلاش برای یافتن چگونگی شناسایی متقلبان باشند.

از زمان انتشار ChatGPT، سازمان‌های مختلف سیاست‌های خاصی را علیه ارسال متن تولید شده توسط هوش مصنوعی به‌عنوان کار خود وضع کرده‌اند. Stack Overflow، یک سایت پرسش و پاسخ که در کمک به برنامه نویسان در حل مشکلات کدنویسی تخصص دارد، کاربران را از ارسال پاسخ های نوشته شده توسط ChatGPT منع کرد. مدیران سایت نوشتند: “مشکل اصلی این است که در حالی که پاسخ هایی که ChatGPT تولید می کند دارای نرخ بالایی از نادرست بودن هستند، معمولاً به نظر می رسد که ممکن است خوب باشند و پاسخ ها بسیار آسان هستند.”

در مجموع، از آنجایی که میانگین نرخ دریافت پاسخ های صحیح از ChatGPT بسیار پایین است، ارسال پاسخ های ایجاد شده توسط ChatGPT به طور قابل ملاحظه ای برای سایت و کاربرانی که سؤال می کنند یا به دنبال پاسخ های صحیح هستند مضر است.

استفاده از ابزارهای هوش مصنوعی برای تولید نوشتاری که می‌توان آن را به‌عنوان نوشته‌های خود به دیگران منتقل کرد، توسط سرمایه‌دار آمریکایی، پل گراهام، که همسرش، جسیکا لیوینگستون، یکی از حامیان OpenAI است، «AIgiarism» نامیده شد. گراهام در ماه دسامبر گفت: “من فکر می کنم قوانین علیه AIgiarism باید تقریباً مشابه قوانین علیه سرقت ادبی باشد.” «مشکل سرقت ادبی فقط این نیست که شما اعتبار را از شخص دیگری می‌گیرید، بلکه به دروغ آن را برای خودتان ادعا می‌کنید. مورد دوم هنوز در AIgiarism صادق است. و در واقع، مورد اول تا حدودی در مورد فناوری هوش مصنوعی فعلی نیز صادق است.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …