TechScape: آیا نشت گسترده متا هوش مصنوعی را دموکراتیک خواهد کرد – و به چه قیمتی؟ | متا

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

Lهفته گذشته، متا LLaMA را اعلام کرد، آخرین دستاورد خود در ساخت یک “مدل زبان بزرگ”* به سبک GPT. اگر هوش مصنوعی آینده فناوری است، پس شرکت‌های بزرگ فناوری باید مدل‌های خود را کنترل کنند یا از رقبا عقب بمانند. LLaMA به GPT OpenAI (مجوز شده توسط مایکروسافت برای Bing و زیربنای ChatGPT خود OpenAI) و LaMDA گوگل (که به Bard، رقیب ChatGPT آن قدرت می‌دهد) در رده‌های بالای این حوزه می‌پیوندد.

هدف متا فقط تکرار GPT نبود. این می گوید که LLaMA یک مدل کوچکتر و کارآمدتر از همتایان خود است که برای دستیابی به همان شاهکارهای درک و بیان با ردپای کوچکتر از نظر محاسبات* ساخته شده است و بنابراین تأثیر زیست محیطی کمتری دارد. (این واقعیت که دویدن ارزان‌تر است، ضرری هم ندارد.)

اما این شرکت همچنین به دنبال متمایز کردن خود از طریق دیگری بود، با “باز” ​​کردن LLaMA، به طور ضمنی اشاره کرد که علیرغم نام تجاری آن، “OpenAI” چیزی غیر از این است. از اطلاعیه آن:

حتی با وجود تمام پیشرفت‌های اخیر در مدل‌های زبان بزرگ، دسترسی تحقیقاتی کامل به آن‌ها به دلیل منابعی که برای آموزش و اجرای چنین مدل‌های بزرگ مورد نیاز است، محدود است. این دسترسی محدود، توانایی محققان را برای درک چگونگی و چرایی عملکرد این مدل‌های زبانی محدود محدود کرده است، و مانع از پیشرفت تلاش‌ها برای بهبود استحکام آن‌ها و کاهش مسائل شناخته‌شده، مانند سوگیری، سمیت، و پتانسیل تولید اطلاعات نادرست می‌شود.

با به اشتراک گذاشتن کد LLaMA، سایر محققان می توانند به راحتی رویکردهای جدیدی را برای محدود کردن یا حذف این مشکلات در مدل های زبان بزرگ آزمایش کنند.

متا با انتشار LLaMA برای استفاده محققان، یکی از محدودیت‌های کلیدی تحقیقات هوش مصنوعی دانشگاهی را حذف کرده است: هزینه هنگفت آموزش یک LLM*. سه سال پیش، هزینه هر دوره آموزشی GPT-3 بین 10 تا 12 میلیون دلار برآورد شد. (OpenAI هزینه واقعی را فاش نکرد، فقط مقدار محاسبه استفاده شده برای یک اجرا جداگانه را فاش نکرد؛ همچنین با توجه به ماهیت آزمون و خطای این زمینه، تعداد اجراها را برای درست کردن آن فاش نکرد.) از آن زمان به بعد، برچسب قیمت فقط افزایش یافته است، بنابراین با انتشار LLaMA برای استفاده محققان، متا به آنها اجازه می دهد میلیون ها نفر صرفه جویی کنند – یا، واقع بینانه تر، چشم انداز تحقیقات بنیادی را به طور کلی باز می کند.

با تمرکز بر کارایی، شرکت به طور مشابه اجرای سیستم را ارزان‌تر کرد. پیشرفته‌ترین مدل LLaMA دارای 65 میلیارد «پارامتر» است (نوعی تعداد خطوط اتصال در شبکه عصبی وسیع* در قلب آن) که به سختی یک سوم اندازه بزرگ‌ترین پسر GPT-3 است، اما متا می‌گوید: دو تا از نظر توانایی تقریباً معادل هستند. این اندازه کوچک به این معنی است که LLaMA می تواند حتی روی سیستم های بسیار ارزان تری اجرا شود یک کامپیوتر رومیزی – اگر می توانید زمان های پردازش یخبندان را تحمل کنید.

اما سخاوت متا بی حد و حصر نبود. این شرکت گفت: “برای حفظ یکپارچگی و جلوگیری از سوء استفاده … دسترسی به مدل به صورت موردی اعطا خواهد شد.” در ابتدا، به دلیل نحوه قضاوت در این پرونده ها، با اتهام تعصب غرب به افرادی که واجد شرایط تلقی می شوند، مورد انتقاد قرار گرفت.

*آیا هر یک از این اصطلاحات هنوز گیج کننده هستند؟? واژه نامه هوش مصنوعی هفته گذشته را بررسی کنید.

LLaMA نشتی

اما این انتقادات در آخر هفته، زمانی که کل مدل به بیرون درز کرد تا هر کسی آن را دانلود کند، مورد بحث قرار گرفت. در ابتدا در 4Chan پست شد، پیوندی به آینه BitTorrent LLaMA در نهایت به GitHub راه یافت، جایی که یک کاربر گستاخ یادداشتی با ظاهر رسمی اضافه کرد که دیگران را تشویق می کرد از آن پیوند “برای صرفه جویی در پهنای باند ما” استفاده کنند.

هنوز خیلی زود است که بگوییم این نشت چه تأثیری خواهد داشت. مدلی که در حال حاضر وجود دارد برای هر کسی بدون نقص فنی جدی و یک کامپیوتر بسیار قوی و یا تمایل به سوزاندن چند صد پوند در صورت‌حساب‌های ذخیره‌سازی ابری غیرقابل استفاده است. همچنین مشخص نیست که پاسخ متا چه خواهد بود. یکی از سخنگویان متا گفت: “هدف متا این است که مدل های پیشرفته هوش مصنوعی را با اعضای جامعه تحقیقاتی به اشتراک بگذارد تا به ما در ارزیابی و بهبود این مدل ها کمک کند.” “LLaMA برای اهداف تحقیقاتی به اشتراک گذاشته شد، مطابق با نحوه به اشتراک گذاری مدل های زبان بزرگ قبلی. در حالی که این مدل برای همه قابل دسترسی نیست، و برخی تلاش کرده‌اند فرآیند تأیید را دور بزنند، ما معتقدیم که استراتژی انتشار فعلی به ما اجازه می‌دهد تا بین مسئولیت و باز بودن تعادل برقرار کنیم.»

که ناگفته های زیادی باقی می گذارد. آیا وکلا را به مشکل می اندازد و سعی می کند جن را دوباره در بطری گیر کند یا نقش تصادفی خود را به عنوان توسعه دهنده چیزی که احتمالاً به سرعت به پرکاربردترین هوش مصنوعی در جهان تبدیل می شود، پذیرفته است. اگر مورد دوم باشد، به زودی می‌توانیم همان انقلابی را در LLM ببینیم که تابستان گذشته به تولیدکنندگان تصویر رسید. Dall-E 2 در ماه می گذشته منتشر شد که نشان دهنده یک تغییر گام در کیفیت تولید تصویر هوش مصنوعی است. (بازخوانی مسئله TechScape در مورد انتشار برای اینکه چقدر در این مدت کوتاه پیشرفت کرده‌ایم چشم‌ها را باز می‌کند.)

اما Dall-E توسط OpenAI کنترل می‌شد، درست مانند ChatGPT، و دسترسی به دقت کنترل می‌شد. مردم می‌دانستند اتفاق بزرگی در حال رخ دادن است، اما توانایی‌شان برای آزمایش با این فناوری محدود بود، در حالی که OpenAI مانند دروازه‌بانی به نظر می‌رسید که تمام مزیت‌های تجاری خلقت را به‌دست می‌آورد.

سپس، در ماه آگوست، هوش مصنوعی پایداری Stable Diffusion را منتشر کرد. Stable Diffusion که اساساً به طور کامل توسط پس‌اندازهای عماد مستاک، معامله‌گر سابق صندوق تامینی تامین می‌شد، از روز اول منبع باز بود. کاری که متا به‌طور تصادفی انجام داد، هوش مصنوعی پایداری عمداً انجام داد، به‌عنوان بانکداری که اگر خدماتی را بالاتر از مدل استفاده رایگان بفروشد، به جای کنترل دسترسی به هر قیمتی، شانس بهتری برای موفقیت در این زمینه خواهد داشت.

از تبلیغات قبلی خبرنامه رد شوید

OpenAI v هوش مصنوعی را باز کنید

ما در تقاطع دو آینده هوش مصنوعی بسیار متفاوت هستیم. در یکی، شرکت‌هایی که میلیاردها دلار در آموزش و بهبود این مدل‌ها سرمایه‌گذاری می‌کنند، به عنوان دروازه‌بان عمل می‌کنند و بخشی از فعالیت‌های اقتصادی را که امکان‌پذیر می‌کنند، از بین می‌برند. برای مثال، اگر می‌خواهید یک کسب‌وکار در بالای ChatGPT ایجاد کنید، می‌توانید – با قیمتی. این اخاذی نیست، فقط 2 دلار برای هر 700000 کلمه پردازش شده است. اما به راحتی می توان دید که چگونه می توان روزی به OpenAI به ازای هر کلمه ای که در رایانه تایپ می شود، یک سنت پرداخت شود.

ممکن است فکر کنید که هیچ شرکتی از چنین مزیتی چشم پوشی نمی کند، اما یک نقطه ضعف در آن جهان وجود دارد: این یک جهان ناپایدار است. دروازه بان بودن فقط زمانی کار می کند که دور محصول شما حصاری وجود داشته باشد و فقط یک شرکت باید تصمیم بگیرد (خواسته یا ناخواسته) چیزی تقریباً به همان خوبی را به صورت رایگان در دسترس قرار دهد تا برای همیشه سوراخی در آن حصار ایجاد کند.

دنیای دیگر دنیایی است که در آن مدل‌های هوش مصنوعی که دهه آینده بخش فناوری را تعریف می‌کنند، در دسترس همه هستند تا بتوانند بر روی آن بسازند. در این دنیاها، برخی از مزایا هنوز نصیب توسعه‌دهندگان آن‌ها می‌شود که در موقعیتی هستند که تخصص و خدمات خود را بفروشند، در حالی که برخی دیگر توسط ارائه‌دهندگان زیرساخت از بین می‌رود. اما با حضور دروازه بان های کمتر، منافع اقتصادی این تحولات بسیار بیشتر گسترش می یابد.

البته یک نقطه ضعف هم دارد. دروازه بانان نه تنها عوارضی را دریافت می کنند – آنها همچنین نگهبانی می دهند. هزینه های API OpenAI یک مرکز سود خالص نیستند، زیرا این شرکت متعهد شده است که از ابزارهای خود به طور مسئولانه استفاده شود. این شرکت می‌گوید که کار مورد نیاز برای اطمینان از حذف سریع اسپمرها و هکرها را انجام می‌دهد و توانایی اعمال محدودیت‌هایی بر ChatGPT را دارد که صرفاً بخشی از خود مدل آن نیستند – برای مثال برای فیلتر کردن پرس و جوها و پاسخ‌ها.

چنین محدودیتی برای Stable Diffusion وجود ندارد، و همچنین برای نمونه های دزدان دریایی LLaMA که این هفته در سراسر جهان در حال چرخش هستند، وجود ندارد. در دنیای تولید تصویر، این تا کنون به معنای کمی بیشتر از پورن های تولید شده توسط هوش مصنوعی نسبت به دنیای ضدعفونی شده Dall-E است. اما فکر می‌کنم زمان زیادی نمی‌گذرد تا ارزش آن نرده‌های محافظ را در عمل ببینیم. و پس از آن ممکن است فقط متا نباشد که جن را در بطری بازگرداند.

اگر می خواهید نسخه کامل خبرنامه را بخوانید، لطفا مشترک شوید تا هر سه شنبه TechScape را در صندوق ورودی خود دریافت کنید.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …