به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
مدیر اجرایی گوگل گفته است که نگرانیها در مورد هوش مصنوعی او را شبها بیدار نگه میدارد و این فناوری در صورت استفاده اشتباه میتواند “بسیار مضر” باشد.
ساندار پیچای همچنین خواستار یک چارچوب نظارتی جهانی برای هوش مصنوعی مشابه معاهدات مورد استفاده برای تنظیم استفاده از تسلیحات هستهای شد، زیرا او هشدار داد که رقابت برای ایجاد پیشرفتها در این فناوری میتواند منجر به کنار گذاشته شدن نگرانیها در مورد ایمنی شود.
پیچای در مصاحبه ای در برنامه 60 دقیقه ای CBS گفت که جنبه منفی هوش مصنوعی شب های بی قراری را برای او به ارمغان می آورد. “اگر به اشتباه مستقر شود می تواند بسیار مضر باشد و ما هنوز همه پاسخ ها را نداریم – و فناوری به سرعت در حال حرکت است. پس آیا این من را در شب بیدار نگه می دارد؟ کاملاً،» او گفت.
آلفابت، مادر گوگل، مالک شرکت هوش مصنوعی مستقر در بریتانیا DeepMind است و یک ربات چت مبتنی بر هوش مصنوعی به نام Bard را در پاسخ به ChatGPT، یک ربات گفتگوی توسعه یافته توسط شرکت فناوری ایالات متحده OpenAI، که از زمان انتشار در نوامبر به یک پدیده تبدیل شده است، راه اندازی کرده است.
پیچای گفت که دولت ها باید چارچوب های جهانی را برای تنظیم هوش مصنوعی در زمان توسعه پیدا کنند. ماه گذشته، هزاران متخصص، محقق و حامی هوش مصنوعی – از جمله مالک توییتر، ایلان ماسک – نامه ای را امضا کردند که در آن خواستار توقف در ایجاد هوش مصنوعی غول پیکر برای حداقل شش ماه شد، در میان نگرانی هایی که توسعه این فناوری ممکن است باعث شود. خارج از کنترل.
پیچای در پاسخ به این سوال که آیا میتوان به چارچوبهایی به سبک تسلیحات هستهای نیاز داشت، گفت: ما به آن نیاز داریم.
فناوری هوش مصنوعی در پشت ChatGPT و Bard که به عنوان مدل زبان بزرگ شناخته می شود، بر روی حجم وسیعی از داده های گرفته شده از اینترنت آموزش دیده است و قادر است پاسخ های قابل قبولی را به درخواست های کاربران در طیف وسیعی از قالب ها، از شعر گرفته تا مقاله های دانشگاهی و کد نویسی نرم افزار معادل تولید کننده تصویر، در سیستم هایی مانند Dall-E و Midjourney، با تولید تصاویر واقعی مانند پاپ با ژاکت پفی، ترکیبی از شگفتی و هشدار را برانگیخته است.
پیچای اضافه کرد که هوش مصنوعی می تواند از طریق توانایی خود در تولید اطلاعات نادرست باعث آسیب شود. می دانید، با هوش مصنوعی می توان به راحتی یک ویدیو ایجاد کرد. جایی که می تواند اسکات باشد [Pelley, the CBS interviewer] گفتن چیزی، یا من چیزی می گویم، و ما هرگز آن را نگفتیم. و می تواند دقیق به نظر برسد. اما می دانید، در مقیاس اجتماعی، می دانید که می تواند آسیب های زیادی را به همراه داشته باشد.»
رئیس گوگل اضافه کرد که نسخه ای از فناوری هوش مصنوعی این شرکت که اکنون از طریق چت ربات Bard در دسترس عموم است، ایمن است. او اضافه کرد که گوگل مسئول نگه داشتن نسخه های پیشرفته تر Bard برای آزمایش است.
نظرات پیچای در حالی مطرح شد که نیویورک تایمز روز یکشنبه گزارش داد که گوگل در حال ساخت یک موتور جستجوی جدید مبتنی بر هوش مصنوعی در پاسخ به سرویس رقیب مایکروسافت Bing است که با فناوری چت بات پشت ChatGPT یکپارچه شده است.
پیچای اعتراف کرد که گوگل به طور کامل متوجه نشده است که فناوری هوش مصنوعی چگونه پاسخ های خاصی را ایجاد می کند.
جنبهای از این وجود دارد که ما آن را مینامیم، همه ما در این زمینه آن را «جعبه سیاه» مینامیم. می دانی، کاملاً نمی فهمی. و شما نمی توانید کاملاً بگویید که چرا این را گفت، یا چرا اشتباه کرد.»
پیچای در پاسخ به سوالی از اسکات پلی، روزنامه نگار CBS، چرا گوگل بارد را به طور عمومی منتشر کرده است، در حالی که او به طور کامل کار می کند، پیچای پاسخ داد: «اجازه دهید اینطور بیان کنم. من فکر نمیکنم که ما نیز به طور کامل درک کنیم که ذهن انسان چگونه کار میکند.»
پیچای اعتراف کرد که به نظر نمی رسد جامعه برای پیشرفت های سریع در هوش مصنوعی آماده باشد. او گفت: «به نظر میرسد عدم تطابق» بین سرعتی که جامعه با آن فکر میکند و با تغییرات سازگار میشود، در مقایسه با سرعتی که هوش مصنوعی در آن در حال تکامل بود، وجود دارد. با این حال، وی افزود که حداقل مردم نسبت به خطرات احتمالی آن سریعتر هوشیار شده اند.
در مقایسه با هر فناوری دیگری، من افراد بیشتری را دیده ام که در اوایل چرخه زندگی خود نگران آن بودند. بنابراین من احساس خوشبینی میکنم.»
پیچای گفت که تأثیر اقتصادی هوش مصنوعی قابل توجه خواهد بود زیرا بر همه چیز تأثیر می گذارد. او افزود: “این روی هر محصول در هر شرکتی تاثیر می گذارد و به همین دلیل است که فکر می کنم یک فناوری بسیار بسیار عمیق است.”
پیچای با استفاده از یک مثال پزشکی گفت که طی 5 تا 10 سال یک رادیولوژیست می تواند با یک دستیار هوش مصنوعی برای کمک به اولویت بندی موارد همکاری کند. وی افزود که “کارگران دانش” مانند نویسندگان، حسابداران، معماران و مهندسان نرم افزار تحت تأثیر قرار خواهند گرفت.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.