ترس بعدی در هوش مصنوعی: ربات های قاتل هالیوود به ابزار نظامی تبدیل می شوند

به گزارش دپارتمان اخبارسیاسی پایگاه خبری آبان نیوز ،

واشنگتن – هنگامی که پرزیدنت بایدن در ماه اکتبر محدودیت‌های شدیدی را برای فروش پیشرفته‌ترین تراشه‌های رایانه‌ای به چین اعلام کرد، تا حدی آن را به عنوان راهی برای دادن فرصتی به صنعت آمریکا برای بازگرداندن رقابت‌پذیری خود فروخت.

اما در پنتاگون و شورای امنیت ملی، دستور کار دوم وجود داشت: کنترل تسلیحات. اگر ارتش چین نتواند این تراشه ها را به دست آورد، ممکن است تلاش خود را برای توسعه تسلیحات مبتنی بر هوش مصنوعی کند کند. این به کاخ سفید و جهان زمان می‌دهد تا قوانینی را برای استفاده از هوش مصنوعی در همه چیز، از سنسورها، موشک‌ها و سلاح‌های سایبری، و در نهایت برای محافظت در برابر برخی از کابوس‌های هالیوود – ربات‌های قاتل خودمختار و رایانه‌ها پیدا کنند. که خالقان انسانی خود را قفل می کنند.

اکنون، مه ترس پیرامون چت بات محبوب ChatGPT و سایر نرم افزارهای مولد هوش مصنوعی باعث شده است که محدودیت تراشه ها به پکن فقط یک راه حل موقت به نظر برسد. وقتی آقای بایدن در جلسه روز پنجشنبه در کاخ سفید با مدیران فناوری که با محدود کردن خطرات این فناوری دست و پنجه نرم می‌کنند، کنار گذاشته شد، اولین اظهارنظر او این بود که «کاری که شما انجام می‌دهید دارای پتانسیل و خطر بزرگی است».

دستیاران امنیت ملی او می‌گویند که این بازتابی بود از جلسات توجیهی طبقه‌بندی‌شده اخیر در مورد پتانسیل فناوری جدید برای خنثی کردن جنگ، درگیری سایبری و – در شدیدترین حالت – تصمیم‌گیری در مورد استفاده از سلاح‌های هسته‌ای.

اما حتی زمانی که آقای بایدن هشدار خود را صادر می کرد، مقامات پنتاگون که در انجمن های فناوری صحبت می کردند، گفتند که فکر می کنند ایده وقفه شش ماهه در توسعه نسل های بعدی ChatGPT و نرم افزارهای مشابه ایده بدی است: چینی ها این کار را نخواهند کرد. منتظر بمانید و روس ها نیز این کار را نخواهند کرد.

جان شرمن، افسر ارشد اطلاعات پنتاگون، روز چهارشنبه گفت: “اگر ما متوقف شویم، حدس بزنید چه کسی متوقف نخواهد شد: دشمنان احتمالی در خارج از کشور.” “ما باید به حرکت ادامه دهیم.”

بیانیه صریح او بر تنش احساس شده در سراسر جامعه دفاعی امروز تأکید کرد. هیچ کس واقعاً نمی داند که این فناوری های جدید در هنگام توسعه و کنترل تسلیحات چه توانایی هایی دارند، و هیچ ایده ای ندارند که چه نوع رژیم کنترل تسلیحاتی، در صورت وجود، ممکن است کارساز باشد.

پیشگویی مبهم، اما عمیقاً نگران کننده است. آیا ChatGPT می‌تواند بازیگران بدی را که قبلاً دسترسی آسانی به فناوری مخرب نداشتند، تقویت کند؟ آیا می تواند رویارویی بین ابرقدرت ها را سرعت بخشد و زمان کمی برای دیپلماسی و مذاکره باقی بگذارد؟

اریک اشمیت، رئیس سابق گوگل که از سال 2016 تا 2020 رئیس هیئت مدیره نوآوری دفاعی بود، گفت: «این صنعت در اینجا احمقانه نیست و شما در حال حاضر شاهد تلاش‌هایی برای خودتنظیمی هستید.

آقای اشمیت که با وزیر امور خارجه سابق هنری کیسینجر مجموعه‌ای نوشته است، گفت: «بنابراین یک سری گفتگوهای غیررسمی اکنون در صنعت در حال انجام است – همه غیر رسمی – درباره اینکه قوانین ایمنی هوش مصنوعی چگونه به نظر می‌رسند. مقاله‌ها و کتاب‌هایی درباره پتانسیل هوش مصنوعی برای تغییر ژئوپلیتیک.

تلاش اولیه برای قرار دادن نرده‌های محافظ در سیستم برای هر کسی که تکرارهای اولیه ChatGPT را آزمایش کرده باشد، واضح است. ربات‌ها به سؤالاتی درباره نحوه آسیب رساندن به کسی با دم کردن مواد مخدر پاسخ نمی‌دهند، به عنوان مثال، چگونه یک سد را منفجر کنیم یا سانتریفیوژهای هسته‌ای را فلج کنیم، همه عملیات‌هایی که ایالات متحده و سایر کشورها بدون بهره‌مندی از ابزارهای هوش مصنوعی در آن انجام داده‌اند. .

اما این لیست سیاه اقدامات تنها باعث کاهش سوء استفاده از این سیستم ها می شود. تعداد کمی فکر می کنند که می توانند به طور کامل چنین تلاش هایی را متوقف کنند. همیشه برای دور زدن محدودیت‌های ایمنی راه‌حلی وجود دارد، زیرا هر کسی که سعی کرده است بوق‌های فوری سیستم هشدار کمربند ایمنی خودرو را خاموش کند، می‌تواند تأیید کند.

اگرچه نرم افزار جدید این موضوع را رایج کرده است، اما به سختی برای پنتاگون جدید است. اولین قوانین در مورد توسعه سلاح های خودمختار یک دهه پیش منتشر شد. مرکز هوش مصنوعی مشترک پنتاگون پنج سال پیش برای بررسی استفاده از هوش مصنوعی در جنگ تاسیس شد.

برخی از سلاح ها در حال حاضر با خلبان خودکار عمل می کنند. موشک‌های پاتریوت که موشک‌ها یا هواپیماهایی را که وارد حریم هوایی حفاظت شده می‌شوند را ساقط می‌کنند، مدت‌ها حالت «خودکار» داشتند. آن‌ها را قادر می‌سازد تا در صورت غرق شدن در اهداف ورودی سریع‌تر از واکنش انسان بدون دخالت انسان شلیک کنند. اما قرار است تحت نظارت انسان هایی باشند که در صورت لزوم می توانند حملات را متوقف کنند.

ترور محسن فخری زاده، دانشمند ارشد هسته ای ایران، توسط موساد اسرائیل با استفاده از یک مسلسل خودران که در یک خودروی پیکاپ نصب شده بود، انجام شد که با کمک هوش مصنوعی – اگرچه به نظر می رسد درجه بالایی از کنترل از راه دور وجود داشته است. روسیه اخیراً گفته است که ساخت اژدر هسته‌ای Poseidon خود را آغاز کرده است – اما هنوز مستقر نکرده است. اگر با هیاهوی روسیه مطابقت داشته باشد، این سلاح می تواند به طور مستقل از اقیانوس عبور کند و از دفاع موشکی موجود فرار کند و چند روز پس از پرتاب یک سلاح هسته ای تحویل دهد.

تاکنون هیچ معاهدات یا توافقنامه‌های بین‌المللی که با چنین سلاح‌های خودمختار سروکار دارند، وجود ندارد. در عصری که قراردادهای کنترل تسلیحات سریعتر از مذاکره کنار گذاشته می شوند، دورنمای چندانی برای چنین توافقی وجود ندارد. اما نوع چالش‌هایی که ChatGPT و امثال آن مطرح می‌کنند، متفاوت و از جهاتی پیچیده‌تر هستند.

در ارتش، سیستم‌های مجهز به هوش مصنوعی می‌توانند سرعت تصمیم‌گیری‌های میدان نبرد را تا حدی افزایش دهند که خطرات کاملاً جدیدی از حملات تصادفی یا تصمیم‌گیری‌هایی در مورد هشدارهای گمراه‌کننده یا عمداً نادرست حملات دریافتی ایجاد کنند.

آقای اشمیت گفت: «یک مشکل اصلی هوش مصنوعی در ارتش و امنیت ملی این است که چگونه در برابر حملاتی که سریع‌تر از تصمیم‌گیری انسانی هستند، دفاع کنید. و من فکر می کنم که این موضوع حل نشده است. به عبارت دیگر، موشک به قدری سریع وارد می شود که باید پاسخ خودکار انجام شود. اگر سیگنال اشتباه باشد چه اتفاقی می‌افتد؟»

جنگ سرد مملو از داستان‌هایی از هشدارهای دروغین بود – یک بار به این دلیل که یک نوار آموزشی که برای تمرین واکنش هسته‌ای استفاده می‌شد، به نوعی در سیستم اشتباه قرار داده شد و هشدار حمله عظیم شوروی را به راه انداخت. (قضاوت خوب باعث شد که همه کنار بیایند.) پل شار، از مرکز امنیت جدید آمریکا، در کتاب سال 2018 خود “Army of None” اشاره کرد که “حداقل 13 حادثه هسته ای نزدیک به استفاده از سال 1962 تا 2002 وجود داشته است.” به این دیدگاه اعتبار می‌دهد که حوادث نزدیک به سانحه، شرایطی طبیعی و البته وحشتناک برای سلاح‌های هسته‌ای هستند.»

به همین دلیل، زمانی که تنش‌ها بین ابرقدرت‌ها بسیار کمتر از امروز بود، یک سری از روسای جمهور تلاش کردند تا برای زمان بیشتری برای تصمیم‌گیری هسته‌ای از همه طرف‌ها مذاکره کنند تا هیچ کس وارد درگیری نشود. اما هوش مصنوعی مولد تهدیدی است که کشورها را به سمت دیگری سوق می دهد، به سمت تصمیم گیری سریع تر.

خبر خوب این است که قدرت‌های بزرگ احتمالاً محتاط خواهند بود – زیرا می‌دانند که واکنش یک دشمن چگونه خواهد بود. اما تاکنون هیچ قوانین توافق شده ای وجود ندارد.

آنیا مانوئل، یکی از مقامات سابق وزارت امور خارجه و اکنون یکی از مدیران گروه مشاوره رایس، هدلی، گیتس و مانوئل، اخیراً نوشت که حتی اگر چین و روسیه برای گفتگوهای کنترل تسلیحات در مورد هوش مصنوعی آماده نباشند، جلسات در این زمینه منجر به بحث و گفتگو خواهد شد. از چه کاربردهایی از هوش مصنوعی به عنوان “فراتر از رنگ پریده” دیده می شود.

البته، حتی پنتاگون نیز نگران موافقت با بسیاری از محدودیت ها خواهد بود.

دنی هیلیس، دانشمند مشهور کامپیوتر که از پیشگامان کامپیوترهای موازی که برای هوش مصنوعی استفاده می‌شد، می‌گوید: «من خیلی سخت جنگیدم تا سیاستی به دست بیاورم که اگر عناصر خودمختار سلاح‌ها را دارید، باید راهی برای خاموش کردن آن‌ها داشته باشید. آقای هیلیس، که در هیئت نوآوری دفاعی نیز خدمت می کرد، گفت که این مخالفت از سوی مقامات پنتاگون صورت گرفت که گفتند: “اگر ما بتوانیم آنها را خاموش کنیم، دشمن نیز می تواند آنها را خاموش کند.”

بنابراین خطرات بزرگ‌تر ممکن است از سوی بازیگران فردی، تروریست‌ها، گروه‌های باج‌افزار یا کشورهای کوچک‌تر با مهارت‌های سایبری پیشرفته – مانند کره شمالی – باشد که یاد می‌گیرند چگونه یک نسخه کوچک‌تر و کم‌مقدار ChatGPT را شبیه‌سازی کنند. و ممکن است متوجه شوند که نرم افزار مولد هوش مصنوعی برای سرعت بخشیدن به حملات سایبری و هدف قرار دادن اطلاعات نادرست عالی است.

تام برت، مسئول عملیات اعتماد و ایمنی در مایکروسافت، که با استفاده از فناوری جدید برای اصلاح موتورهای جستجوی خود به سرعت پیش می رود، در یک انجمن اخیر در دانشگاه جورج واشنگتن گفت که فکر می کند سیستم های هوش مصنوعی به مدافعان کمک می کنند تا رفتارهای غیرعادی را سریعتر از آنها تشخیص دهند. به مهاجمان کمک خواهد کرد. سایر کارشناسان مخالف هستند. اما او گفت که بیم آن می‌رود که این امر بتواند انتشار اطلاعات نادرست هدفمند را «فوق‌العاده» کند.

همه اینها نشان دهنده یک دوره کاملاً جدید از کنترل تسلیحات است.

برخی از کارشناسان می گویند که از آنجایی که توقف گسترش ChatGPT و نرم افزارهای مشابه غیرممکن است، بهترین امید محدود کردن تراشه های تخصصی و سایر قدرت محاسباتی مورد نیاز برای پیشرفت فناوری است. این بدون شک یکی از فرمول‌های مختلف کنترل تسلیحات خواهد بود که در چند سال آینده ارائه می‌شود، در زمانی که قدرت‌های هسته‌ای بزرگ، حداقل، علاقه‌ای به مذاکره بر سر تسلیحات قدیمی و حتی کمتر از سلاح‌های جدید ندارند.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …