به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،
نظرات بیان شده در این مقاله متعلق به نویسنده است و به هیچ وجه بیانگر موضع تحریریه یورونیوز نیست.
از زمانی که ChatGPT در نوامبر 2022 در صحنه منفجر شد، بسیاری به این فکر کردهاند که چگونه میتواند زندگی، شغل و تحصیلات را آنطور که ما میشناسیم را برای بهتر یا بدتر تغییر دهد.
بسیاری از جمله ما از مزایایی که فناوری دیجیتال می تواند برای مصرف کنندگان به ارمغان بیاورد هیجان زده هستیم.
با این حال، تجربه ما در آزمایش محصولات و خدمات دیجیتال، شکلدهی به سیاستهای دیجیتال و بررسی دیدگاههای مصرفکنندگان در مورد اینترنت اشیا، هوش مصنوعی، دادهها و پلتفرمها، به این معنی است که چشمان همه کارشناسان به روی چالشهای دیجیتالیسازی مخرب نیز باز است.
از این گذشته، مصرفکنندگان باید بتوانند از بهترین فناوری به روشی که میخواهند استفاده کنند و مجبور نباشند در مورد ایمنی و اعتماد به خطر بیفتند.
چه سودی برای مصرف کنندگان دارد؟
در فناوریهای جدید و مولد مانند ChatGPT، پتانسیل مثبت زیادی وجود دارد، از جمله تولید محتوای نوشتاری، ایجاد مواد آموزشی برای دانشجویان پزشکی یا نوشتن و اشکالزدایی کد.
قبلاً دیدهایم که افرادی در وظایف مصرفکننده با ChatGPT نوآوری میکنند – برای مثال، از آن برای نوشتن یک درخواست تجدیدنظر در پارکینگ موفق استفاده میکنند.
و هنگامی که از ChatGPT پرسیده شد، ChatGPT ایده های خاص خود را در مورد آنچه که می تواند برای مصرف کنندگان انجام دهد داشت.
من میتوانم به مقایسه قیمتها و مشخصات محصولات مختلف کمک کنم، به سؤالات مربوط به نگهداری و ضمانتهای محصول پاسخ دهم، و اطلاعاتی در مورد سیاستهای بازگشت و تعویض ارائه کنم…. من همچنین میتوانم به مصرفکنندگان در درک شرایط فنی و مشخصات محصول کمک کنم و تصمیمگیری آگاهانه را برای آنها آسانتر کنم.
با نگاهی به این موضوع، ممکن است تعجب کنید که آیا این سطح از خدمات یک دستگاه ممکن است منجر به منسوخ شدن متخصصان در همه زمینهها، از جمله ما، شود.
با این حال، رونمایی از ChatGPT و فناوریهای مشابه نشان داده است که هنوز مشکلی با دقت دارد که به نوبه خود برای کاربرانش مشکل است.
جستوجوی حقیقت
بیایید با بررسی چالش دقت و حقیقت در یک مدل زبان بزرگ مانند ChatGPT شروع کنیم.
ChatGPT شروع به ایجاد اختلال در جستجوی اینترنتی از طریق عرضه این فناوری در موتور جستجوی Bing مایکروسافت کرده است.
با جستجوی فعال شده با ChatGPT، نتایج نه به عنوان لیستی از پیوندها، بلکه به صورت خلاصه ای دقیق از اطلاعات درون پیوندها، که به سبک مکالمه ارائه شده است، ظاهر می شوند.
پاسخها را میتوان از طریق سؤالات بیشتر دقیقتر کرد، درست مثل اینکه با یک دوست یا مشاور صحبت میکنید.
این می تواند برای درخواستی مانند “آیا می توانید سبک ترین چادر را که در یک تابه دوچرخه 20 لیتری قرار می گیرد را به من نشان دهید” بسیار مفید باشد.
بررسی نتایجی از این دست آسان است، و شاید مهمتر از آن، اگر اشتباه باشد، خطر بزرگی برای شخص ایجاد نخواهد کرد.
با این حال، زمانی که اطلاعاتی که «اشتباه» یا «نادرست» هستند، خطر مادی آسیب را به همراه دارند – برای مثال، توصیههای بهداشتی یا مالی یا اطلاعات نادرست عمدی که میتواند مشکلات اجتماعی گستردهتری ایجاد کند، داستان متفاوت است.
قانع کننده است، اما آیا قابل اعتماد است؟
مشکل این است که فناوری هایی مانند ChatGPT در نوشتن پاسخ های قانع کننده بسیار خوب هستند.
اما OpenAI واضح است که ChatGPT برای نوشتن متنی درست طراحی نشده است.
این آموزش برای پیشبینی کلمه بعدی و ایجاد پاسخهایی است که بسیار معقول به نظر میرسند – به این معنی که یک پاسخ گمراهکننده یا نادرست میتواند به همان اندازه قانعکننده به نظر برسد که یک پاسخ قابل اعتماد و درست.
تحویل سریع نادرستهای متقاعدکننده و قابل قبول از طریق ابزارهایی مانند ChatGPT به یک مشکل اساسی در دست کاربرانی تبدیل میشود که تنها هدفشان گمراه کردن، فریب دادن و کلاهبرداری است.
مدلهای زبان بزرگ مانند ChatGPT را میتوان برای یادگیری لحنها و سبکهای مختلف آموزش داد، که آنها را برای بهرهبرداری آماده میکند.
نوشتن ایمیل های فیشینگ متقاعد کننده ناگهان بسیار آسان تر می شود و تصاویر متقاعد کننده اما گمراه کننده سریعتر ایجاد می شوند.
کلاهبرداری ها و کلاهبرداری ها می توانند پیچیده تر شوند و تشخیص اطلاعات نادرست دشوارتر شود. هر دو می توانند از دفاعی که ما ساخته ایم مصون بمانند.
ما باید یاد بگیریم که چگونه از ChatGPT بهترین بهره را ببریم
حتی با تمرکز بر تنها یک جنبه از ChatGPT، کسانی از ما که درگیر محافظت از مصرف کنندگان در اروپا و سراسر جهان هستیم، چندین لایه از پیامدهای مختلف را بررسی کرده ایم که این فناوری پیشرفته زمانی که به دست کاربران برسد می تواند ایجاد کند.
افراد در حوزه ما در واقع در حال حاضر با مشاغل، گروههای حقوق دیجیتال و مراکز تحقیقاتی همکاری میکنند تا پیچیدگیهای چنین فناوری مخربی را کشف کنند.
OpenAI تدابیری را در مورد استفاده از این فناوری اعمال کرده است، اما سایر محصولات مشابه ممکن است اینگونه نباشند.
برای اطمینان از اینکه مصرفکنندگان میتوانند با اطمینان بیشترین استفاده را از فناوری ببرند، به حکومتداری قوی و متمرکز بر آینده نیاز است.
همانطور که قانون هوش مصنوعی توسعه می یابد، سازمان های اروپایی مصرف کنندگان در حال همکاری نزدیک با BEUC برای تضمین حقوق مصرف کننده در مورد حفظ حریم خصوصی، ایمنی و انصاف در چارچوب های قانونی هستند.
در آینده، ما آماده دفاع از مصرفکنندگان در دادگاه به دلیل اشتباهات ناشی از سیستمهای هوش مصنوعی خواهیم بود.
نوآوری واقعی هنوز منافع انسانی را در هسته خود دارد
با این حال، دلایل زیادی وجود دارد که به ابزارهای آینده، مانند ChatGPT، با خوش بینی نگاه کنیم.
ما معتقدیم که نوآوری می تواند اهرمی برای توسعه اجتماعی و اقتصادی با شکل دادن به بازارهایی باشد که برای مصرف کنندگان بهتر کار می کنند.
با این حال، نوآوری واقعی به نظرات همه نیاز دارد و تنها زمانی اتفاق میافتد که منافع ملموس در زندگی هر چه بیشتر مردم احساس شود.
اما ما تنها در آغاز تجربه ای جذاب با این فناوری های تعاملی و مولد هستیم.
ممکن است برای حرف آخر خیلی زود باشد، اما یک چیز کاملاً مطمئن است: با وجود – و شاید حتی به دلیل ChatGPT – هنوز نیازهای زیادی برای حمایت از مصرف کننده توسط انسان های واقعی وجود خواهد داشت.
مارکو پیرانی مدیر امور عمومی و روابط رسانهای است و الز بروژمن به عنوان رئیس بخش حمایت و اجرا در Euroconsumers، گروهی متشکل از پنج سازمان مصرفکننده در بلژیک، ایتالیا، برزیل، اسپانیا و پرتغال، فعالیت میکند.
در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.