به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
مندانشمند شناختی، دانیل دنت، در کتاب خود در سال 1991 با عنوان «توضیح آگاهی»، شیر دریایی نوجوانی را توصیف می کند که در دریا سرگردان است و به دنبال «صخره یا قطعه مرجانی مناسب برای … خانه زندگی خود» است. با پیدا کردن یکی دیگر از سرشاخه دریا به مغزش نیازی ندارد و آن را می خورد. بعید است بشریت چنین عادات آشپزی را اتخاذ کند، اما یک تشابه استعاری نگران کننده وجود دارد. نگرانی این است که در رقابت سود محور برای وارد کردن هوش مصنوعی به زندگی روزمره ما، انسانها با وابستگی بیش از حد به ماشینهای «هوشمند» خود را فریب میدهند – و روشهایی را که درک آنها به آن بستگی دارد، از بین میبرند.
مغز انسان در حال تکامل است. سه هزار سال پیش، اجداد ما مغزهایی بزرگتر از مغز ما داشتند. حداقل یک توضیح این است که 100 نسل پیش هوش به طور فزاینده ای جمعی شد – و انسان ها از آستانه جمعیتی که افراد اطلاعات را به اشتراک می گذاشتند، عبور کردند. پروفسور دنت نوشت که قابل توجه ترین گسترش قوای ذهنی انسان – ظهور تمدن از طریق هنر و کشاورزی – از دیدگاه تکاملی تقریباً آنی بود.
این اجتماعی شدن تفکر سیناپسی اکنون با نوع متفاوتی از تبادل اطلاعات مورد آزمایش قرار می گیرد: توانایی هوش مصنوعی برای پاسخگویی به هر درخواستی با زبانی شبیه انسان – که نوعی قصد، حتی احساس را نشان می دهد. اما این یک سراب است. رایانهها موفقتر شدهاند، اما فاقد درک واقعی هستند که با تکامل بهعنوان افراد خودمختار در شبکهای از شیوههای اجتماعی در انسان پرورش یافته است. ChatGPT، شبیه انسانها، میتواند نثری زیبا خلق کند. اما ریاضیات پایه را اشتباه می گیرد. می تواند نژادپرستانه و جنسیتی باشد. ChatGPT هیچ نوستالژی، طرح و بازتابی ندارد. خوب این همه سر و صدا برا چیه؟ خلاصه پول.
هنگامی که ابزار جستجوی گوگل جدید گوگل با هوش مصنوعی، Bard، در این هفته مشاهده شد که در یک ویدیوی تبلیغاتی اشتباه کرده است، این اشتباه بیش از 150 میلیارد دلار از قیمت سهام شرکت مادر آلفابت را از بین برد. گری مارکوس، دانشمند علوم اعصاب، متعجب بود که چرا موتور جستجوی بینگ مایکروسافت، با استفاده از ChatGPT، و در همان روز بارد رونمایی شد، علیرغم ارائه خدمات پرخطا، به عنوان «انقلاب» مورد استقبال قرار گرفت؟ پاسخ این شانس است که بشریت ممکن است به جای «گوگل» وب «بینگ» باشد. این غیر منطقی به نظر نمی رسد: ChatGPT از زمان رونمایی در پایان نوامبر، میلیون ها نفر را شگفت زده کرده است.
مشکل این است که این فقط ویبر است. چتباتها معتبرتر به نظر میرسند، اما صادقتر نیستند. پروفسور مارکوس خاطرنشان می کند که خطاها یا توهمات آنها در “خون سیلیکونی” آنهاست، محصول جانبی روشی که آنها ورودی های خود را فشرده می کنند. او می نویسد: «از آنجایی که هیچ یک از شرکت ها هنوز محصولات خود را تحت بررسی کامل علمی قرار نداده اند، نمی توان گفت کدام یک قابل اعتمادتر است. “ممکن است معلوم شود که محصول جدید گوگل در واقع است بیشتر قابل اعتماد.”
شرکتهای بزرگ همه اطلاعات زیادی را به شکلی قابل بهرهبرداری بدون نیاز به درک آن به دست آوردهاند. روزنامهنگاران، سیاستمداران و شاعران ممکن است در مورد جنبههای «معنای» ارتباطات بسیار نگران باشند، اما مهندسان هوش مصنوعی چندان نگران نیستند. آنها به اطلاعات موجود در پیام به عنوان معیاری برای اختلال سیستم نگاه می کنند. به همین دلیل است که هوش مصنوعی خطر ایجاد کلاس جدیدی از سلاحها را در جنگ علیه حقیقت دارد.
انسانها سابقه طولانی در تفکر آرزو و دست کم گرفتن خطرات پیشرفتهای جدید دارند. منافع تجاری، فناوری را به عنوان یک دین جدید سوق می دهد که اصل اعتقادی آن این است که فناوری بیشتر همیشه بهتر است. غولهای وب میخواهند کاربران را مبهوت کنند تا ابزارهای هوش مصنوعی خود را بیش از حد تخمین بزنند و بشریت را تشویق کنند تا اختیارات خود را بسیار فراتر از صلاحیت خود به آنها واگذار کند. نگرش کارآفرینانه و کنجکاوی علمی بسیاری از پیشرفت های عصر مدرن را ایجاد کرده است. اما پیشرفت یک اصل اخلاقی نیست. خطر این نیست که با ماشین ها مانند انسان رفتار شود، بلکه با انسان ها مانند ماشین ها رفتار شود.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.