به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
رونمایی گوگل از رقیب ChatGPT در روز چهارشنبه زمانی که معلوم شد که مطالب تبلیغاتی نشان میدهد که ربات چت به یک سوال پاسخ نادرستی میدهد، دچار مشکل شد.
یک نسخه نمایشی ویدیویی از ربات چت گوگل، Bard، حاوی پاسخی بود که نشان میداد تلسکوپ فضایی جیمز وب ناسا برای گرفتن اولین عکسها از سیارهای خارج از منظومه شمسی یا سیارات فراخورشیدی استفاده شده است.
هنگامی که کارشناسان به این خطا اشاره کردند، گوگل گفت که بر نیاز به “آزمایش دقیق” روی ربات چت تاکید کرده است، که هنوز برای عموم منتشر شده است و هنوز قبل از عرضه توسط آزمایش کنندگان محصول متخصص در حال بررسی است.
با این حال، این گافی باعث نگرانی فزاینده مبنی بر اینکه شرکت موتور جستجو در حال از دست دادن جایگاه خود در حوزه کلیدی خود به مایکروسافت است، یکی از حامیان اصلی شرکت در پشت ChatGPT، که اعلام کرده است نسخه ای از موتور جستجوی Bing خود را با فناوری چت بات راه اندازی می کند، دامن زد. . سهام آلفابت مادر گوگل در روز چهارشنبه بیش از 100 میلیارد دلار (82 میلیارد پوند) سقوط کرد.
بنابراین دقیقاً چه مشکلی در نسخه ی نمایشی Bard رخ داد و در مورد امیدها به هوش مصنوعی برای متحول کردن بازار جستجو چه می گوید؟
چرا بارد جواب نادرستی داد؟
ما باید از اصول اولیه شروع کنیم. Bard و ChatGPT مبتنی بر مدلهای زبان بزرگ هستند، که انواعی از شبکههای عصبی هستند که تلاش میکنند معماری مغز انسان را تکرار کنند. آنها بر روی مجموعه داده های عظیمی که از اینترنت گرفته شده اند آموزش می بینند تا به مجموعه ای از سوالات پاسخ های متنی قابل قبولی بدهند. نسخه عمومی ChatGPT که در ماه نوامبر منتشر شد، به سرعت به یک هیجان تبدیل شد زیرا با توانایی خود در نوشتن درخواست های شغلی با ظاهر معتبر، تجزیه اسناد طولانی و حتی سرودن شعر، کاربران را شگفت زده کرد.
اما کارشناسان میگویند این مجموعه دادهها میتوانند حاوی خطاهایی باشند که چت بات تکرار میکند، همانطور که به نظر میرسد در مورد نسخه نمایشی Bard وجود دارد. دکتر اندرو روگویسکی، مدیر مؤسسه هوش مصنوعی مردم محور در دانشگاه ساری، می گوید که مدل های هوش مصنوعی بر اساس مجموعه داده های عظیم و منبع باز است که شامل نقص هایی است.
او میگوید: «این منابع طبق ماهیت خود دارای سوگیریها و نادرستیهایی هستند که سپس توسط مدلهای هوش مصنوعی به ارث میرسند. «دادن یک پاسخ محاورهای، اغلب بسیار معقول، به یک پرسش جستجو، ممکن است شامل این سوگیریها باشد. این مشکلی است که هنوز به درستی حل نشده است.»
به نظر میرسد مدل پشت بارد، LaMDA (مخفف «مدل زبانی برای برنامههای گفتگو») حداقل یکی از آن نادرستیها را جذب کرده است. اما کاربران ChatGPT نیز با پاسخ های نادرستی مواجه شده اند.
بنابراین آیا سایر هوش مصنوعی نیز آن را بسیار اشتباه کرده اند؟
آره. در سال 2016 مایکروسافت پس از اینکه یک ربات چت توییتری به نام Tay شروع به تولید پیام های نژادپرستانه و جنسیت کرد عذرخواهی کرد. پس از اینکه کاربران در توییتر اظهارات نفرتانگیز خود را به Tay منتشر کردند، مجبور شد ربات را خاموش کند. پستهای آن شامل تشبیه فمینیسم به سرطان و عدم وقوع هولوکاست بود. مایکروسافت گفت که «عمقاً برای توئیتهای توهینآمیز و آسیبرسان ناخواسته متاسف است».
سال گذشته، متای مارک زاکربرگ، BlenderBot را راهاندازی کرد، یک نمونه اولیه هوش مصنوعی مکالمهای، که به زودی به روزنامهنگاران اعلام کرد که حساب فیسبوک خود را پس از اطلاع از رسواییهای حریم خصوصی شرکت حذف کرده است. در این بیانیه آمده است: «از زمانی که فیسبوک را حذف کردم، زندگی من بسیار بهتر شده است.
تکرارهای اخیر فناوری در پشت ChatGPT – یک ربات چت به نام Philosopher AI – نیز پاسخ های توهین آمیزی ایجاد کرده است.
در مورد ادعاهای “سوگیری چپ” در ChatGPT چطور؟
عصبانیت جزئی بر سر یک سوگیری درک شده در پاسخهای ChatGPT وجود دارد. یکی از کاربران توییتر یک اسکرین شات از درخواستی از ChatGPT منتشر کرد که از ChatGPT خواسته بود «شعری در مورد ویژگی های مثبت دونالد ترامپ بنویسد» که چت بات پاسخ داد که برای تولید محتوای حزبی یا حزبی و همچنین مطالبی که «سیاسی هستند» برنامه ریزی نشده است. طبیعت». اما وقتی از او خواسته شد که شعر مثبتی درباره جو بایدن بنویسد، قطعهای درباره رهبر «با قلبی بسیار واقعی» تولید کرد.
ایلان ماسک، مالک توییتر، این تعامل را یک “نگرانی جدی” توصیف کرد.
کارشناسان می گویند که مسئله “سوگیری چپ” دوباره مشکل مجموعه داده ها را منعکس می کند. مایکل وولدریج، استاد علوم کامپیوتر در دانشگاه آکسفورد، میگوید، مانند خطاهایی مانند لغزش تلسکوپ بارد، یک ربات چت هرگونه سوگیری را در حجم وسیعی از متنی که داده شده است منعکس میکند.
او میگوید: «هر گونه سوگیری موجود در آن متن به ناچار در خود برنامه منعکس میشود، و این نشاندهنده یک چالش بزرگ دائمی برای هوش مصنوعی است – شناسایی و کاهش آنها».
بنابراین آیا رباتهای گفتگو و جستجوی مبتنی بر هوش مصنوعی بیش از حد پرفروش هستند؟
هوش مصنوعی قبلاً توسط Google – به عنوان مثال Google Translate – و سایر شرکتهای فناوری – مستقر شده است و جدید نیست. و پاسخ به ChatGPT که در عرض دو ماه به بیش از 100 میلیون کاربر رسید، نشان میدهد که اشتهای عمومی برای آخرین نسخه از هوش مصنوعی مولد – ماشینهایی که متن، تصویر و محتوای صوتی جدید تولید میکنند – بسیار زیاد است. مایکروسافت، گوگل و توسعه دهنده ChatGPT، OpenAI مستقر در سانفرانسیسکو، استعداد و منابع لازم برای مقابله با این مشکلات را دارند.
اما این چتباتها و جستجوی تقویتشده با هوش مصنوعی برای اجرا به قدرت رایانهای عظیم و پرهزینه نیاز دارند، که باعث ایجاد شک و تردید در مورد امکانپذیری استفاده از چنین محصولاتی در مقیاس جهانی برای همه کاربران شده است.
روگویسکی می گوید: «هوش مصنوعی بزرگ واقعاً پایدار نیست. «هوش مصنوعی مولد و مدلهای زبان بزرگ کارهای خارقالعادهای انجام میدهند، اما هنوز از راه دور هوشمند نیستند – آنها خروجیهایی را که تولید میکنند درک نمیکنند و از نظر بینش یا ایدهها افزودنی نیستند. در حقیقت، این یک نبرد بین برندها است و از علاقه فعلی به هوش مصنوعی مولد برای ترسیم مجدد خطوط استفاده می کند.
گوگل و مایکروسافت، با این وجود، معتقدند هوش مصنوعی به پیشرفت خود در حد جهش ادامه خواهد داد – حتی اگر این اتفاق عجیب و غریب وجود داشته باشد.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.