مدرس استفاده از ربات را در یک پنجم ارزیابی ها تشخیص می دهد زیرا نگرانی ها در مورد هوش مصنوعی در امتحانات افزایش می یابد | دانشگاه های استرالیا

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،

یکی از اساتید ارتباطات در دانشگاه دیکین استفاده از ربات‌ها را در تقریبا یک پنجم ارزیابی‌ها تشخیص داده است و این نگرانی‌ها را برانگیخته است که استفاده از فناوری مصنوعی برای تقلب در امتحانات گسترده است.

از 54 ارزیابی تابستانی کارشناسی ارشد سالی براندون، 10 مورد “کمک قابل توجه و قابل تشخیص ربات” داشتند – بالاترین میزان در پنج سالی که او از نرم افزار برای شناسایی ربات ها استفاده کرده است.

ChatGPT – جدیدترین نرم افزار چت بات ویروسی – به دلیل توانایی آن در فرار از ابزارهای تشخیص سرقت ادبی، هشدار داخلی ایجاد کرده است. نرم افزاری که براندون استفاده می کند طیف وسیعی از کمک های ربات را شناسایی می کند، از جمله نرم افزاری که به بهبود متن تولید شده با هوش مصنوعی کمک می کند.

توسعه‌دهندگان فناوری که نرم‌افزاری را ایجاد کرده‌اند که ادعا می‌کنند متن ایجاد شده توسط ChatGPT را شناسایی می‌کند، نتایج متفاوتی داشته‌اند.

براندون منتظر تایید است که آیا نتایج آشکارساز ربات او نقض رسمی یکپارچگی تحصیلی محسوب می شود یا خیر.

براندون گفت: “این هنوز در حال یادگیری است و هر چه بیشتر با آن بازی کنیم، بیشتر یاد می گیرد.”

“مسئله بزرگ این است که چگونه مربیان ارزیابی ها را در پرتو این فناوری – که از بین نمی رود – تجدید نظر می کنند تا بتوانیم به طور منصفانه و دقیق شایستگی های دانش آموزان را ارزیابی کنیم.

“من به دنبال این هستم که چگونه می توان آن را در طراحی یادگیری گنجاند و چگونه ارزیابی نیاز به بازنگری برای استفاده از آن دارد.”

دکتر آنا بان، مدرس ارشد حقوق در دانشگاه کرتین، گفت که چت بات آموزش را “انقلابی” می کند، اما به نظر می رسد در پاسخ های آمریکا محور دقیق تر است.

هنگامی که او از هوش مصنوعی خواست تا به سؤالی در مورد قصور مربوط به قانون استرالیا پاسخ دهد، نادرستی واقعی و ارجاعات ساختگی وجود داشت.

او با پیشبرد این فناوری از آن خواست تا پرونده اخیر دادگاه عالی در مورد سقط جنین در ایالات متحده را شرح دهد. مجموعه داده فعلی ChatGPT آموزش داده شده است که پس از سال 2021 منقضی می شود، قبل از اینکه حکم صادر شود.

عذرخواهی کرد و گفت هیچ موردی با این نام پیدا نکرد.

او گفت: «از این بابت خوشحالم، اما فکر نمی‌کنم لزوماً همیشه اینطور باشد. این فناوری کاملاً باورنکردنی است، در برخی موارد فقط یک پاس نیست، بلکه پاسخ خوبی است.

«برخی کاربردهای واقعا شگفت انگیز حتی برای دانشگاهیان وجود دارد … اما من را نگران می کند. این روش ارزیابی ما را متحول خواهد کرد… من به دنبال افزایش ارزیابی شفاهی خواهم بود.

Dilan Thampapillai، دانشیار دانشکده بازرگانی دانشگاه NSW، چند جستجو را با چت بات انجام داده است و همچنین دریافته است که اطلاعات اشتباه در نتایج متعدد شناسایی شده است.

او گفت: “این فقط به اندازه داده های ورودی خوب است.” “اگر این ناقص باشد، خروجی های آن نیز خواهد بود.”

ChatGPT در حال حاضر به موتورهای جستجو مانند Google دسترسی ندارد، در عوض اطلاعات خود را از سایت های دانشگاهی، از جمله Trove می گیرد.

سایر نرم افزارهای مشابه از جمله ChatSonic می توانند از داده های زنده گوگل در پاسخ های خود استفاده کنند.

تامپاپیلای گفت: «اگر بدون محدودیت به اینترنت دسترسی کامل داشته باشد، در واقع می تواند به یک مشکل بزرگ حریم خصوصی تبدیل شود. همچنین می‌تواند منجر به انتشار اطلاعات نادرست شود زیرا به نظر می‌رسد مشکل شناسایی اشتباه دارد.»

اندرو راثال، تهیه‌کننده دیجیتالی بیپ مدیا از ربات خواست تا مقاله‌ای ارجاعی درباره ظاهر دنباله‌دار هالی در منطقه ویکتوریا بنویسد.

او متوجه شد که چت بات ارجاعاتی از وب سایت آکادمیک Trove ساخته و به نقل قول های جعلی از روزنامه محلی که از روزنامه ها و مقالات دیگر گرفته شده است، ارجاع داده است.

Wrathall گفت: “آنچه که من معتقدم در حال رخ دادن است این است که … یادگیری ماشینی ارتباط بین کلمات ایجاد کرده است و در حال بازیابی این ارتباط از حافظه برای ایجاد مقاله ای است که با استفاده از قوانین دستور زبان واقعی به نظر می رسد.” “اما هوش مصنوعی آن ظرافت را ندارد که بداند جمله واقعی نیست.”

ChatGPT گفت: “در یک مقاله منتشر شده در 21 آوریل 1910، Gippsland Times ظهور دنباله دار هالی را به عنوان “منظره ای تاثیرگذار” توصیف کرد.
در زیر، تروو را برای عبارت “نمایش تحمیلی” در Gippsland Times از آوریل تا مه 1910 جستجو کردم. pic.twitter.com/ZMnlxXkwMj

– اندرو راثال (@AndyWrathall) 28 دسامبر 2022

ChatGPT گفت مقاله 5 مه 1910 شامل عکسی با شرح “یک شی درخشان و خیره کننده با زیبایی خارق العاده” بود.
این عبارت در آن ماه ظاهر نمی شود، اما کلمات درخشان، خیره کننده، فوق العاده و زیبایی با دنباله دار در مقالات جداگانه Vic مرتبط هستند.

– اندرو راثال (@AndyWrathall) 28 دسامبر 2022

نیک تامپسون، دانشمند کامپیوتر و دانشیار دانشگاه کرتین، گفت که ChatGPT در ایجاد پاسخ‌های منسجم به اعلان‌های ساده – مانند گزارش‌های کوتاه – عالی بود، اما هنوز ظرفیتی برای تفکر انتقادی و تحلیل ندارد.

او گفت: «مدل زبان بر روی یک مجموعه داده بزرگ آموزش داده شده است تا ساختار آماری زبان را بیاموزد و در داخل پاسخ‌ها فقط یک تابع ریاضی هستند.

«هدف این است که خروجی منسجم به نظر برسد، با تأکید کمتر بر درست بودن آن… وقتی شکاف‌هایی وجود دارد، غیرمعمول نیست که هوش مصنوعی فقط چیزی را بسازد که با ساختار مورد نیاز مطابقت داشته باشد.

“اگر مربیان اکنون الهام گرفته شوند تا ساختار و نقش ارزشیابی در تدریس خود را برای ایجاد ارزیابی های معتبر که بر اساس این مهارت های سطح بالاتر استوار است، تجدید نظر کنند، می تواند نتیجه مثبتی داشته باشد.”

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …