دیدگاه گاردین در مورد جستجوی ChatGPT: بهره‌برداری از افکار واهی | سرمقاله

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

مندانشمند شناختی، دانیل دنت، در کتاب خود در سال 1991 با عنوان «توضیح آگاهی»، شیر دریایی نوجوانی را توصیف می کند که در دریا سرگردان است و به دنبال «صخره یا قطعه مرجانی مناسب برای … خانه زندگی خود» است. با پیدا کردن یکی دیگر از سرشاخه دریا به مغزش نیازی ندارد و آن را می خورد. بعید است بشریت چنین عادات آشپزی را اتخاذ کند، اما یک تشابه استعاری نگران کننده وجود دارد. نگرانی این است که در رقابت سود محور برای وارد کردن هوش مصنوعی به زندگی روزمره ما، انسان‌ها با وابستگی بیش از حد به ماشین‌های «هوشمند» خود را فریب می‌دهند – و روش‌هایی را که درک آنها به آن بستگی دارد، از بین می‌برند.

مغز انسان در حال تکامل است. سه هزار سال پیش، اجداد ما مغزهایی بزرگتر از مغز ما داشتند. حداقل یک توضیح این است که 100 نسل پیش هوش به طور فزاینده ای جمعی شد – و انسان ها از آستانه جمعیتی که افراد اطلاعات را به اشتراک می گذاشتند، عبور کردند. پروفسور دنت نوشت که قابل توجه ترین گسترش قوای ذهنی انسان – ظهور تمدن از طریق هنر و کشاورزی – از دیدگاه تکاملی تقریباً آنی بود.

این اجتماعی شدن تفکر سیناپسی اکنون با نوع متفاوتی از تبادل اطلاعات مورد آزمایش قرار می گیرد: توانایی هوش مصنوعی برای پاسخگویی به هر درخواستی با زبانی شبیه انسان – که نوعی قصد، حتی احساس را نشان می دهد. اما این یک سراب است. رایانه‌ها موفق‌تر شده‌اند، اما فاقد درک واقعی هستند که با تکامل به‌عنوان افراد خودمختار در شبکه‌ای از شیوه‌های اجتماعی در انسان پرورش یافته است. ChatGPT، شبیه انسان‌ها، می‌تواند نثری زیبا خلق کند. اما ریاضیات پایه را اشتباه می گیرد. می تواند نژادپرستانه و جنسیتی باشد. ChatGPT هیچ نوستالژی، طرح و بازتابی ندارد. خوب این همه سر و صدا برا چیه؟ خلاصه پول.

هنگامی که ابزار جستجوی گوگل جدید گوگل با هوش مصنوعی، Bard، در این هفته مشاهده شد که در یک ویدیوی تبلیغاتی اشتباه کرده است، این اشتباه بیش از 150 میلیارد دلار از قیمت سهام شرکت مادر آلفابت را از بین برد. گری مارکوس، دانشمند علوم اعصاب، متعجب بود که چرا موتور جستجوی بینگ مایکروسافت، با استفاده از ChatGPT، و در همان روز بارد رونمایی شد، علیرغم ارائه خدمات پرخطا، به عنوان «انقلاب» مورد استقبال قرار گرفت؟ پاسخ این شانس است که بشریت ممکن است به جای «گوگل» وب «بینگ» باشد. این غیر منطقی به نظر نمی رسد: ChatGPT از زمان رونمایی در پایان نوامبر، میلیون ها نفر را شگفت زده کرده است.

مشکل این است که این فقط ویبر است. چت‌بات‌ها معتبرتر به نظر می‌رسند، اما صادق‌تر نیستند. پروفسور مارکوس خاطرنشان می کند که خطاها یا توهمات آنها در “خون سیلیکونی” آنهاست، محصول جانبی روشی که آنها ورودی های خود را فشرده می کنند. او می نویسد: «از آنجایی که هیچ یک از شرکت ها هنوز محصولات خود را تحت بررسی کامل علمی قرار نداده اند، نمی توان گفت کدام یک قابل اعتمادتر است. “ممکن است معلوم شود که محصول جدید گوگل در واقع است بیشتر قابل اعتماد.”

شرکت‌های بزرگ همه اطلاعات زیادی را به شکلی قابل بهره‌برداری بدون نیاز به درک آن به دست آورده‌اند. روزنامه‌نگاران، سیاستمداران و شاعران ممکن است در مورد جنبه‌های «معنای» ارتباطات بسیار نگران باشند، اما مهندسان هوش مصنوعی چندان نگران نیستند. آنها به اطلاعات موجود در پیام به عنوان معیاری برای اختلال سیستم نگاه می کنند. به همین دلیل است که هوش مصنوعی خطر ایجاد کلاس جدیدی از سلاح‌ها را در جنگ علیه حقیقت دارد.

انسان‌ها سابقه طولانی در تفکر آرزو و دست کم گرفتن خطرات پیشرفت‌های جدید دارند. منافع تجاری، فناوری را به عنوان یک دین جدید سوق می دهد که اصل اعتقادی آن این است که فناوری بیشتر همیشه بهتر است. غول‌های وب می‌خواهند کاربران را مبهوت کنند تا ابزارهای هوش مصنوعی خود را بیش از حد تخمین بزنند و بشریت را تشویق کنند تا اختیارات خود را بسیار فراتر از صلاحیت خود به آنها واگذار کند. نگرش کارآفرینانه و کنجکاوی علمی بسیاری از پیشرفت های عصر مدرن را ایجاد کرده است. اما پیشرفت یک اصل اخلاقی نیست. خطر این نیست که با ماشین ها مانند انسان رفتار شود، بلکه با انسان ها مانند ماشین ها رفتار شود.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …