به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
Lهفته گذشته، متا LLaMA را اعلام کرد، آخرین دستاورد خود در ساخت یک “مدل زبان بزرگ”* به سبک GPT. اگر هوش مصنوعی آینده فناوری است، پس شرکتهای بزرگ فناوری باید مدلهای خود را کنترل کنند یا از رقبا عقب بمانند. LLaMA به GPT OpenAI (مجوز شده توسط مایکروسافت برای Bing و زیربنای ChatGPT خود OpenAI) و LaMDA گوگل (که به Bard، رقیب ChatGPT آن قدرت میدهد) در ردههای بالای این حوزه میپیوندد.
هدف متا فقط تکرار GPT نبود. این می گوید که LLaMA یک مدل کوچکتر و کارآمدتر از همتایان خود است که برای دستیابی به همان شاهکارهای درک و بیان با ردپای کوچکتر از نظر محاسبات* ساخته شده است و بنابراین تأثیر زیست محیطی کمتری دارد. (این واقعیت که دویدن ارزانتر است، ضرری هم ندارد.)
اما این شرکت همچنین به دنبال متمایز کردن خود از طریق دیگری بود، با “باز” کردن LLaMA، به طور ضمنی اشاره کرد که علیرغم نام تجاری آن، “OpenAI” چیزی غیر از این است. از اطلاعیه آن:
حتی با وجود تمام پیشرفتهای اخیر در مدلهای زبان بزرگ، دسترسی تحقیقاتی کامل به آنها به دلیل منابعی که برای آموزش و اجرای چنین مدلهای بزرگ مورد نیاز است، محدود است. این دسترسی محدود، توانایی محققان را برای درک چگونگی و چرایی عملکرد این مدلهای زبانی محدود محدود کرده است، و مانع از پیشرفت تلاشها برای بهبود استحکام آنها و کاهش مسائل شناختهشده، مانند سوگیری، سمیت، و پتانسیل تولید اطلاعات نادرست میشود.
با به اشتراک گذاشتن کد LLaMA، سایر محققان می توانند به راحتی رویکردهای جدیدی را برای محدود کردن یا حذف این مشکلات در مدل های زبان بزرگ آزمایش کنند.
متا با انتشار LLaMA برای استفاده محققان، یکی از محدودیتهای کلیدی تحقیقات هوش مصنوعی دانشگاهی را حذف کرده است: هزینه هنگفت آموزش یک LLM*. سه سال پیش، هزینه هر دوره آموزشی GPT-3 بین 10 تا 12 میلیون دلار برآورد شد. (OpenAI هزینه واقعی را فاش نکرد، فقط مقدار محاسبه استفاده شده برای یک اجرا جداگانه را فاش نکرد؛ همچنین با توجه به ماهیت آزمون و خطای این زمینه، تعداد اجراها را برای درست کردن آن فاش نکرد.) از آن زمان به بعد، برچسب قیمت فقط افزایش یافته است، بنابراین با انتشار LLaMA برای استفاده محققان، متا به آنها اجازه می دهد میلیون ها نفر صرفه جویی کنند – یا، واقع بینانه تر، چشم انداز تحقیقات بنیادی را به طور کلی باز می کند.
با تمرکز بر کارایی، شرکت به طور مشابه اجرای سیستم را ارزانتر کرد. پیشرفتهترین مدل LLaMA دارای 65 میلیارد «پارامتر» است (نوعی تعداد خطوط اتصال در شبکه عصبی وسیع* در قلب آن) که به سختی یک سوم اندازه بزرگترین پسر GPT-3 است، اما متا میگوید: دو تا از نظر توانایی تقریباً معادل هستند. این اندازه کوچک به این معنی است که LLaMA می تواند حتی روی سیستم های بسیار ارزان تری اجرا شود یک کامپیوتر رومیزی – اگر می توانید زمان های پردازش یخبندان را تحمل کنید.
اما سخاوت متا بی حد و حصر نبود. این شرکت گفت: “برای حفظ یکپارچگی و جلوگیری از سوء استفاده … دسترسی به مدل به صورت موردی اعطا خواهد شد.” در ابتدا، به دلیل نحوه قضاوت در این پرونده ها، با اتهام تعصب غرب به افرادی که واجد شرایط تلقی می شوند، مورد انتقاد قرار گرفت.
*آیا هر یک از این اصطلاحات هنوز گیج کننده هستند؟? واژه نامه هوش مصنوعی هفته گذشته را بررسی کنید.
LLaMA نشتی
اما این انتقادات در آخر هفته، زمانی که کل مدل به بیرون درز کرد تا هر کسی آن را دانلود کند، مورد بحث قرار گرفت. در ابتدا در 4Chan پست شد، پیوندی به آینه BitTorrent LLaMA در نهایت به GitHub راه یافت، جایی که یک کاربر گستاخ یادداشتی با ظاهر رسمی اضافه کرد که دیگران را تشویق می کرد از آن پیوند “برای صرفه جویی در پهنای باند ما” استفاده کنند.
هنوز خیلی زود است که بگوییم این نشت چه تأثیری خواهد داشت. مدلی که در حال حاضر وجود دارد برای هر کسی بدون نقص فنی جدی و یک کامپیوتر بسیار قوی و یا تمایل به سوزاندن چند صد پوند در صورتحسابهای ذخیرهسازی ابری غیرقابل استفاده است. همچنین مشخص نیست که پاسخ متا چه خواهد بود. یکی از سخنگویان متا گفت: “هدف متا این است که مدل های پیشرفته هوش مصنوعی را با اعضای جامعه تحقیقاتی به اشتراک بگذارد تا به ما در ارزیابی و بهبود این مدل ها کمک کند.” “LLaMA برای اهداف تحقیقاتی به اشتراک گذاشته شد، مطابق با نحوه به اشتراک گذاری مدل های زبان بزرگ قبلی. در حالی که این مدل برای همه قابل دسترسی نیست، و برخی تلاش کردهاند فرآیند تأیید را دور بزنند، ما معتقدیم که استراتژی انتشار فعلی به ما اجازه میدهد تا بین مسئولیت و باز بودن تعادل برقرار کنیم.»
که ناگفته های زیادی باقی می گذارد. آیا وکلا را به مشکل می اندازد و سعی می کند جن را دوباره در بطری گیر کند یا نقش تصادفی خود را به عنوان توسعه دهنده چیزی که احتمالاً به سرعت به پرکاربردترین هوش مصنوعی در جهان تبدیل می شود، پذیرفته است. اگر مورد دوم باشد، به زودی میتوانیم همان انقلابی را در LLM ببینیم که تابستان گذشته به تولیدکنندگان تصویر رسید. Dall-E 2 در ماه می گذشته منتشر شد که نشان دهنده یک تغییر گام در کیفیت تولید تصویر هوش مصنوعی است. (بازخوانی مسئله TechScape در مورد انتشار برای اینکه چقدر در این مدت کوتاه پیشرفت کردهایم چشمها را باز میکند.)
اما Dall-E توسط OpenAI کنترل میشد، درست مانند ChatGPT، و دسترسی به دقت کنترل میشد. مردم میدانستند اتفاق بزرگی در حال رخ دادن است، اما تواناییشان برای آزمایش با این فناوری محدود بود، در حالی که OpenAI مانند دروازهبانی به نظر میرسید که تمام مزیتهای تجاری خلقت را بهدست میآورد.
سپس، در ماه آگوست، هوش مصنوعی پایداری Stable Diffusion را منتشر کرد. Stable Diffusion که اساساً به طور کامل توسط پساندازهای عماد مستاک، معاملهگر سابق صندوق تامینی تامین میشد، از روز اول منبع باز بود. کاری که متا بهطور تصادفی انجام داد، هوش مصنوعی پایداری عمداً انجام داد، بهعنوان بانکداری که اگر خدماتی را بالاتر از مدل استفاده رایگان بفروشد، به جای کنترل دسترسی به هر قیمتی، شانس بهتری برای موفقیت در این زمینه خواهد داشت.
OpenAI v هوش مصنوعی را باز کنید
ما در تقاطع دو آینده هوش مصنوعی بسیار متفاوت هستیم. در یکی، شرکتهایی که میلیاردها دلار در آموزش و بهبود این مدلها سرمایهگذاری میکنند، به عنوان دروازهبان عمل میکنند و بخشی از فعالیتهای اقتصادی را که امکانپذیر میکنند، از بین میبرند. برای مثال، اگر میخواهید یک کسبوکار در بالای ChatGPT ایجاد کنید، میتوانید – با قیمتی. این اخاذی نیست، فقط 2 دلار برای هر 700000 کلمه پردازش شده است. اما به راحتی می توان دید که چگونه می توان روزی به OpenAI به ازای هر کلمه ای که در رایانه تایپ می شود، یک سنت پرداخت شود.
ممکن است فکر کنید که هیچ شرکتی از چنین مزیتی چشم پوشی نمی کند، اما یک نقطه ضعف در آن جهان وجود دارد: این یک جهان ناپایدار است. دروازه بان بودن فقط زمانی کار می کند که دور محصول شما حصاری وجود داشته باشد و فقط یک شرکت باید تصمیم بگیرد (خواسته یا ناخواسته) چیزی تقریباً به همان خوبی را به صورت رایگان در دسترس قرار دهد تا برای همیشه سوراخی در آن حصار ایجاد کند.
دنیای دیگر دنیایی است که در آن مدلهای هوش مصنوعی که دهه آینده بخش فناوری را تعریف میکنند، در دسترس همه هستند تا بتوانند بر روی آن بسازند. در این دنیاها، برخی از مزایا هنوز نصیب توسعهدهندگان آنها میشود که در موقعیتی هستند که تخصص و خدمات خود را بفروشند، در حالی که برخی دیگر توسط ارائهدهندگان زیرساخت از بین میرود. اما با حضور دروازه بان های کمتر، منافع اقتصادی این تحولات بسیار بیشتر گسترش می یابد.
البته یک نقطه ضعف هم دارد. دروازه بانان نه تنها عوارضی را دریافت می کنند – آنها همچنین نگهبانی می دهند. هزینه های API OpenAI یک مرکز سود خالص نیستند، زیرا این شرکت متعهد شده است که از ابزارهای خود به طور مسئولانه استفاده شود. این شرکت میگوید که کار مورد نیاز برای اطمینان از حذف سریع اسپمرها و هکرها را انجام میدهد و توانایی اعمال محدودیتهایی بر ChatGPT را دارد که صرفاً بخشی از خود مدل آن نیستند – برای مثال برای فیلتر کردن پرس و جوها و پاسخها.
چنین محدودیتی برای Stable Diffusion وجود ندارد، و همچنین برای نمونه های دزدان دریایی LLaMA که این هفته در سراسر جهان در حال چرخش هستند، وجود ندارد. در دنیای تولید تصویر، این تا کنون به معنای کمی بیشتر از پورن های تولید شده توسط هوش مصنوعی نسبت به دنیای ضدعفونی شده Dall-E است. اما فکر میکنم زمان زیادی نمیگذرد تا ارزش آن نردههای محافظ را در عمل ببینیم. و پس از آن ممکن است فقط متا نباشد که جن را در بطری بازگرداند.
اگر می خواهید نسخه کامل خبرنامه را بخوانید، لطفا مشترک شوید تا هر سه شنبه TechScape را در صندوق ورودی خود دریافت کنید.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.