به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
چه می شود اگر هوش مصنوعی نمی کند تمدن را اساساً تغییر شکل دهد؟
این هفته، من با جفری هینتون، روانشناس انگلیسی که دانشمند کامپیوتر شد، صحبت کردم که کارش روی شبکه های عصبی در دهه 1980 زمینه را برای انفجار در قابلیت های هوش مصنوعی در دهه گذشته فراهم کرد. هینتون می خواست صحبت کند تا پیامی را به جهان برساند: او از فناوری که به ایجاد آن کمک کرده است می ترسد.
شما باید باهوش تر از ما تصور کنید با همان تفاوت که ما باهوش تر از قورباغه هستیم. و قرار است از وب بیاموزد، هر کتابی را که تا به حال در مورد چگونگی دستکاری مردم نوشته شده است را خوانده باشد، و همچنین آن را در عمل دیده باشد.”
او می گوید که اکنون فکر می کند که زمان بحران در پنج تا 20 سال آینده فرا خواهد رسید. اما من یک یا دو سال را رد نمی کنم. و من هنوز 100 سال را رد نمیکنم – فقط اعتماد به نفس من که مدتی طولانی اتفاق نیفتاده بود با درک اینکه هوش بیولوژیکی و هوش دیجیتال بسیار متفاوت هستند و هوش دیجیتال احتمالاً بسیار بهتر است متزلزل شد. ”
هینتون اولین چهره بزرگ در توسعه هوش مصنوعی نیست که زنگ خطر را به صدا در می آورد و آخرین نفر نیز نخواهد بود. پیشرفت غیرقابل انکار – و شتابانگیز – در فناوری زیربنایی به راحتی به چشمانداز پیشرفت بیپایان کمک میکند. امکان روشن اثر چرخ لنگر، جایی که پیشرفت خود باعث پیشرفت بیشتر می شود، به پتانسیل می افزاید. محققان در حال حاضر نتایج خوبی را می بینند، به عنوان مثال، در استفاده از داده های تولید شده توسط هوش مصنوعی برای آموزش مدل های جدید هوش مصنوعی، در حالی که دیگران در حال ترکیب کردن سیستم های هوش مصنوعی در همه چیز از طراحی تراشه تا عملیات مرکز داده هستند.
گروه دیگری از کارکنان هوش مصنوعی با این فرض موافق هستند، اما نتیجه گیری را رد می کنند. بله، هوش مصنوعی دنیا را تغییر خواهد داد، اما هیچ ترسی از آن وجود ندارد. این دیدگاه – که به طور گسترده تحت عنوان “تکین گرا” قرار می گیرد – این است که توسعه هوش مصنوعی نشان دهنده یک جهش عظیم در توانایی های انسانی است اما لزوماً ترسناک نیست. آنها می گویند دنیایی که در آن هوش مصنوعی قدرتمند به رنج انسان پایان می دهد، چه به این دلیل است که ما خودمان را در یک بهشت دیجیتال آپلود می کنیم یا به سادگی به ماشین ها اجازه می دهیم تا تمام کارهای دشوار وجود انسان را انجام دهند و در آرمانشهری از خلقت آنها زندگی کنند.
(یک دیدگاه اقلیت این است که هوش مصنوعی واقعاً بشریت را از بین خواهد برد و این نیز خوب است. همانطور که والدین از به ارث بردن دنیا از فرزند خود نمی ترسند، ما نیز باید خوشحال باشیم، نه اینکه بترسیم، هوشی که توسط انسان ها پیشی می گیرد. “شتاب گرایان موثر” نقش خود را به عنوان مامایی برای خدا می بینند. همیشه مشخص نیست که آنها چقدر صادق هستند.)
یک پاسخ این است که به سادگی همه چیز را انکار کنید. اگر پیشرفت هوش مصنوعی اغراقآمیز باشد، یا اگر احتمال دارد که دستاوردهای فناوری متوقف شود، دیگر نیازی به نگرانی نیست. تاریخ مملو از نمونه هایی از پیشرفت است که پایان ناپذیر به نظر می رسید اما در عوض به محدودیت های سختی رسید که هیچ کس پیش بینی نکرده بود. شما نمی توانید یک موتور بخار را به ماه ببرید، ماشین پرنده ندارید و ماشین لباسشویی هسته ای به دلایل زیادی ایده بدی است. در حال حاضر میتوانیم موانع احتمالی را در افق ببینیم: اگر GPT-4 بر روی بخش قابلتوجهی از تمام متن دیجیتالی موجود آموزش داده شود، چه چیزی برای GPT-5 باقی میماند؟
اما من بیشتر به حد وسط علاقه دارم. بیشتر فناوریها دنیا را به پایان نمیرسانند. (در واقع، تا کنون، بشریت 100% نرخ ضربه برای عدم تخریب خود دارد، اما نتایج گذشته ممکن است نشان دهنده عملکرد آینده نباشد.) بسیاری از فناوری ها جهان را تغییر می دهند. چگونه ممکن است این حد وسط برای هوش مصنوعی تکان بخورد؟
هوش مصنوعی کوچک در مقابل غولها
برای من، وقتی سند فاش شده ای را خواندم که ظاهراً از یک مهندس گوگل بود که امیدهای شرکت را برای برنده شدن در مسابقه هوش مصنوعی ارزیابی می کرد. از مقاله ما:
سندی از یک مهندس گوگل که به صورت آنلاین به بیرون درز کرده است، می گوید که این شرکت با اشاره به توسعه دهنده چت ربات ChatGPT، «بازرسی های زیادی در OpenAI انجام داده است».
حقیقت ناراحت کننده این است که ما موقعیتی برای پیروزی در این مسابقه تسلیحاتی نداریم و OpenAI نیز چنین نیست. در حالی که ما در حال دعوا بودیم، یک دسته سوم بی سر و صدا ناهار ما را می خورد.» مهندس نوشت.
این مهندس ادامه داد که “جناح سوم” که تهدیدی رقابتی برای گوگل و OpenAI است، جامعه منبع باز است.
این سند آنلاین است، و من شما را تشویق میکنم که اگر به رقابتهای هوش مصنوعی علاقه دارید، آن را مطالعه کنید. جزئیات زیادی در مورد اینکه چرا نویسنده ناشناس فکر میکند که گوگل و OpenAI ممکن است در مسیری شکستخورده باشند، از پیشرفتها در “تنظیم دقیق” و توزیع گرفته تا سهولت تطبیق یک مدل منبع باز با یک مدل فوق خاص وجود دارد. مورد استفاده
یک قسمت خاص توجه من را جلب کرد:
مدل های غول پیکر ما را کند می کنند. در درازمدت، بهترین مدل ها آنهایی هستند که می توان آنها را به سرعت تکرار کرد. اکنون که می دانیم در رژیم پارامتر <20B چه چیزی ممکن است، باید بیشتر از یک فکر بعدی، انواع کوچک بسازیم.
نویسنده یادداشت بر روی یک احتمال متمرکز شده است – اینکه مدل های “کوچک” هوش مصنوعی، به دلیل توزیع شدن در بین کاربران زیادی و آموزش آسان تر برای جاهای خاص، در نهایت به مدل های “غول پیکر” مانند GPT-4 می رسند و از آنها پیشی می گیرند. یا LaMDA خود گوگل که نشان دهنده وضعیت هنر در این زمینه است.
اما امکان دیگری وجود دارد که ارزش بررسی دارد: این که آنها این کار را نخواهند کرد و به هر حال “برنده” خواهند شد.
یک مدل زبان بزرگ مانند GPT-4 فوقالعاده قدرتمند است و در عین حال به طرز خندهداری ناقص است. با وجود میلیاردها دلاری که به معنای واقعی کلمه به سمت سیستم پرتاب میشود، هنوز هم مستعد خطاهای اساسی مانند توهم است، دستورالعملهای ساده را اشتباه میفهمد و همچنان بر روی مفاهیم اساسی دست و پا میزند. داستان دهه آینده سرمایهگذاری در مدلهای زبانی بزرگ، قرار است پولی را در گودال بیل بزند تا هر چه بیشتر از این حالتهای شکست از بین برود. با صرف یک میلیارد دلار، دقت شما از 99% به 99.9% می رسد. خرج کردن 10 میلیارد دیگر ممکن است شما را به 99.99 درصد برساند. خرج کردن 100 میلیارد دیگر ممکن است شما را به 99.999 درصد برساند.
در همین حال، نسخه 99% OK سیستم هوش مصنوعی، که زمانی در پشت دیوار پرداخت در وب سایت OpenAI قرار داشت، از طریق جامعه منبع باز فیلتر می شود تا زمانی که روی آیفون شما نشسته، به صورت محلی اجرا می شود و هر روز صبح در ارتباطات شخصی شما آموزش می بیند و یاد می گیرد. چگونه صحبت می کنید و فکر می کنید بدون اینکه هیچ داده ای با OpenAI یا Google به اشتراک گذاشته شود.
AI A-OK؟
این چشم انداز از آینده «هوش مصنوعی فوق هوشمند» را به عنوان مشکلی مشابه با «خودروی خودران»، اما با چشم انداز بسیار متفاوت، قرار می دهد. مشکلی که صنعت فناوری را آزار می دهد این است که یک خودروی خودران که 99 درصد ایمن است بی فایده است. شما چاره ای ندارید جز اینکه به توسعه ادامه دهید و پول بیشتری را روی مشکل بگذارید تا در نهایت سیستمی را توسعه دهید که نه تنها از یک راننده انسانی ایمن تر است، بلکه آنقدر ایمن است که هیچ کس زنده نمی تواند لحظات غیرقابل توضیحی را ببیند که به طرز وحشتناکی شکست می خورد. و بدون هیچ دلیلی با سرعت تمام به دیوار میرود.
هوش مصنوعی مولد اینطور نیست. اگر موتور جستجوی موسیقی مبتنی بر هوش مصنوعی تیلور سوئیفت را به عنوان “الکتروکلش” برچسب گذاری کند، هیچ کس نمی میرد. اگر شعری که از GPT میخواهید برای کارت خروج همکارتان بنویسد، دارای متر زباله باشد، هیچ ملکی از بین نمیرود. اگر شخصیت کارتونی روی پوستر جشن تولد فرزندتان که توسط هوش مصنوعی ساخته شده دو انگشت شست داشته باشد، هیچ کس شکایت نخواهد کرد.
هنوز هم انگیزه ای برای ریختن انبوهی از پول برای مشکلات سخت وجود خواهد داشت. اما برای استفاده روزمره، کوچک، ارزان و زیرک می تواند بزرگ، گران و بی عیب و نقص را شکست دهد. و در مقیاس صنعت فناوری مصرف کننده، این می تواند برای خم کردن قوس آینده به روشی بسیار متفاوت کافی باشد.
شاید به پرواز مافوق صوت فکر کنید. هیچ دلیل صرفاً فناوری وجود ندارد که چرا سریعترین عبور از اقیانوس اطلس در حال حاضر چندین ساعت کندتر از زمان تولد من است. اما ترکیبی از رفتار مصرف کننده، اقتصاد صنعت، وضعیت نظارتی و دشواری ساده افزایش دائمی سرعت پرواز به این معنی است که چنین است. در عوض، جهان چیزهای دیگری را بهینه کرد: راحتی، بهره وری سوخت، ایمنی و انعطاف پذیری حرف اول را زدند.
هنوز هم پتانسیل فاجعه در آن چشم انداز جهان وجود دارد. شاید انباشته شدن پیشرفتهای کوچک و ارزان در مدلهای سبک و چابک هوش مصنوعی همچنان ما را بهطور اجتنابناپذیری به سمت ابرهوشی سوق دهد. یا شاید هنوز مشتریان کافی وجود داشته باشند که مایلند یک تریلیون دلار برای افزودن کسری دیگر از درصد قابلیت اطمینان به یک سیستم هوش مصنوعی هزینه کنند که به هر حال جهان با خطر وجودی مواجه است.
اما سناریوی اصلی برای هر فناوری جدید، به نظر من، باید با این فرض شروع شود که جهان در سال آینده همچنان بسیار شبیه جهان امسال خواهد بود. بالاخره من هنوز مرده از خواب بیدار نشده ام.
اگر می خواهید نسخه کامل خبرنامه را بخوانید، لطفا مشترک شوید تا هر سه شنبه TechScape را در صندوق پستی خود دریافت کنید.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.