به گزارش دپارتمان اخبارسیاسی پایگاه خبری آبان نیوز ،
واشنگتن – هنگامی که پرزیدنت بایدن در ماه اکتبر محدودیتهای شدیدی را برای فروش پیشرفتهترین تراشههای رایانهای به چین اعلام کرد، تا حدی آن را به عنوان راهی برای دادن فرصتی به صنعت آمریکا برای بازگرداندن رقابتپذیری خود فروخت.
اما در پنتاگون و شورای امنیت ملی، دستور کار دوم وجود داشت: کنترل تسلیحات. اگر ارتش چین نتواند این تراشه ها را به دست آورد، ممکن است تلاش خود را برای توسعه تسلیحات مبتنی بر هوش مصنوعی کند کند. این به کاخ سفید و جهان زمان میدهد تا قوانینی را برای استفاده از هوش مصنوعی در همه چیز، از سنسورها، موشکها و سلاحهای سایبری، و در نهایت برای محافظت در برابر برخی از کابوسهای هالیوود – رباتهای قاتل خودمختار و رایانهها پیدا کنند. که خالقان انسانی خود را قفل می کنند.
اکنون، مه ترس پیرامون چت بات محبوب ChatGPT و سایر نرم افزارهای مولد هوش مصنوعی باعث شده است که محدودیت تراشه ها به پکن فقط یک راه حل موقت به نظر برسد. وقتی آقای بایدن در جلسه روز پنجشنبه در کاخ سفید با مدیران فناوری که با محدود کردن خطرات این فناوری دست و پنجه نرم میکنند، کنار گذاشته شد، اولین اظهارنظر او این بود که «کاری که شما انجام میدهید دارای پتانسیل و خطر بزرگی است».
دستیاران امنیت ملی او میگویند که این بازتابی بود از جلسات توجیهی طبقهبندیشده اخیر در مورد پتانسیل فناوری جدید برای خنثی کردن جنگ، درگیری سایبری و – در شدیدترین حالت – تصمیمگیری در مورد استفاده از سلاحهای هستهای.
اما حتی زمانی که آقای بایدن هشدار خود را صادر می کرد، مقامات پنتاگون که در انجمن های فناوری صحبت می کردند، گفتند که فکر می کنند ایده وقفه شش ماهه در توسعه نسل های بعدی ChatGPT و نرم افزارهای مشابه ایده بدی است: چینی ها این کار را نخواهند کرد. منتظر بمانید و روس ها نیز این کار را نخواهند کرد.
جان شرمن، افسر ارشد اطلاعات پنتاگون، روز چهارشنبه گفت: “اگر ما متوقف شویم، حدس بزنید چه کسی متوقف نخواهد شد: دشمنان احتمالی در خارج از کشور.” “ما باید به حرکت ادامه دهیم.”
بیانیه صریح او بر تنش احساس شده در سراسر جامعه دفاعی امروز تأکید کرد. هیچ کس واقعاً نمی داند که این فناوری های جدید در هنگام توسعه و کنترل تسلیحات چه توانایی هایی دارند، و هیچ ایده ای ندارند که چه نوع رژیم کنترل تسلیحاتی، در صورت وجود، ممکن است کارساز باشد.
پیشگویی مبهم، اما عمیقاً نگران کننده است. آیا ChatGPT میتواند بازیگران بدی را که قبلاً دسترسی آسانی به فناوری مخرب نداشتند، تقویت کند؟ آیا می تواند رویارویی بین ابرقدرت ها را سرعت بخشد و زمان کمی برای دیپلماسی و مذاکره باقی بگذارد؟
اریک اشمیت، رئیس سابق گوگل که از سال 2016 تا 2020 رئیس هیئت مدیره نوآوری دفاعی بود، گفت: «این صنعت در اینجا احمقانه نیست و شما در حال حاضر شاهد تلاشهایی برای خودتنظیمی هستید.
آقای اشمیت که با وزیر امور خارجه سابق هنری کیسینجر مجموعهای نوشته است، گفت: «بنابراین یک سری گفتگوهای غیررسمی اکنون در صنعت در حال انجام است – همه غیر رسمی – درباره اینکه قوانین ایمنی هوش مصنوعی چگونه به نظر میرسند. مقالهها و کتابهایی درباره پتانسیل هوش مصنوعی برای تغییر ژئوپلیتیک.
تلاش اولیه برای قرار دادن نردههای محافظ در سیستم برای هر کسی که تکرارهای اولیه ChatGPT را آزمایش کرده باشد، واضح است. رباتها به سؤالاتی درباره نحوه آسیب رساندن به کسی با دم کردن مواد مخدر پاسخ نمیدهند، به عنوان مثال، چگونه یک سد را منفجر کنیم یا سانتریفیوژهای هستهای را فلج کنیم، همه عملیاتهایی که ایالات متحده و سایر کشورها بدون بهرهمندی از ابزارهای هوش مصنوعی در آن انجام دادهاند. .
اما این لیست سیاه اقدامات تنها باعث کاهش سوء استفاده از این سیستم ها می شود. تعداد کمی فکر می کنند که می توانند به طور کامل چنین تلاش هایی را متوقف کنند. همیشه برای دور زدن محدودیتهای ایمنی راهحلی وجود دارد، زیرا هر کسی که سعی کرده است بوقهای فوری سیستم هشدار کمربند ایمنی خودرو را خاموش کند، میتواند تأیید کند.
اگرچه نرم افزار جدید این موضوع را رایج کرده است، اما به سختی برای پنتاگون جدید است. اولین قوانین در مورد توسعه سلاح های خودمختار یک دهه پیش منتشر شد. مرکز هوش مصنوعی مشترک پنتاگون پنج سال پیش برای بررسی استفاده از هوش مصنوعی در جنگ تاسیس شد.
برخی از سلاح ها در حال حاضر با خلبان خودکار عمل می کنند. موشکهای پاتریوت که موشکها یا هواپیماهایی را که وارد حریم هوایی حفاظت شده میشوند را ساقط میکنند، مدتها حالت «خودکار» داشتند. آنها را قادر میسازد تا در صورت غرق شدن در اهداف ورودی سریعتر از واکنش انسان بدون دخالت انسان شلیک کنند. اما قرار است تحت نظارت انسان هایی باشند که در صورت لزوم می توانند حملات را متوقف کنند.
ترور محسن فخری زاده، دانشمند ارشد هسته ای ایران، توسط موساد اسرائیل با استفاده از یک مسلسل خودران که در یک خودروی پیکاپ نصب شده بود، انجام شد که با کمک هوش مصنوعی – اگرچه به نظر می رسد درجه بالایی از کنترل از راه دور وجود داشته است. روسیه اخیراً گفته است که ساخت اژدر هستهای Poseidon خود را آغاز کرده است – اما هنوز مستقر نکرده است. اگر با هیاهوی روسیه مطابقت داشته باشد، این سلاح می تواند به طور مستقل از اقیانوس عبور کند و از دفاع موشکی موجود فرار کند و چند روز پس از پرتاب یک سلاح هسته ای تحویل دهد.
تاکنون هیچ معاهدات یا توافقنامههای بینالمللی که با چنین سلاحهای خودمختار سروکار دارند، وجود ندارد. در عصری که قراردادهای کنترل تسلیحات سریعتر از مذاکره کنار گذاشته می شوند، دورنمای چندانی برای چنین توافقی وجود ندارد. اما نوع چالشهایی که ChatGPT و امثال آن مطرح میکنند، متفاوت و از جهاتی پیچیدهتر هستند.
در ارتش، سیستمهای مجهز به هوش مصنوعی میتوانند سرعت تصمیمگیریهای میدان نبرد را تا حدی افزایش دهند که خطرات کاملاً جدیدی از حملات تصادفی یا تصمیمگیریهایی در مورد هشدارهای گمراهکننده یا عمداً نادرست حملات دریافتی ایجاد کنند.
آقای اشمیت گفت: «یک مشکل اصلی هوش مصنوعی در ارتش و امنیت ملی این است که چگونه در برابر حملاتی که سریعتر از تصمیمگیری انسانی هستند، دفاع کنید. و من فکر می کنم که این موضوع حل نشده است. به عبارت دیگر، موشک به قدری سریع وارد می شود که باید پاسخ خودکار انجام شود. اگر سیگنال اشتباه باشد چه اتفاقی میافتد؟»
جنگ سرد مملو از داستانهایی از هشدارهای دروغین بود – یک بار به این دلیل که یک نوار آموزشی که برای تمرین واکنش هستهای استفاده میشد، به نوعی در سیستم اشتباه قرار داده شد و هشدار حمله عظیم شوروی را به راه انداخت. (قضاوت خوب باعث شد که همه کنار بیایند.) پل شار، از مرکز امنیت جدید آمریکا، در کتاب سال 2018 خود “Army of None” اشاره کرد که “حداقل 13 حادثه هسته ای نزدیک به استفاده از سال 1962 تا 2002 وجود داشته است.” به این دیدگاه اعتبار میدهد که حوادث نزدیک به سانحه، شرایطی طبیعی و البته وحشتناک برای سلاحهای هستهای هستند.»
به همین دلیل، زمانی که تنشها بین ابرقدرتها بسیار کمتر از امروز بود، یک سری از روسای جمهور تلاش کردند تا برای زمان بیشتری برای تصمیمگیری هستهای از همه طرفها مذاکره کنند تا هیچ کس وارد درگیری نشود. اما هوش مصنوعی مولد تهدیدی است که کشورها را به سمت دیگری سوق می دهد، به سمت تصمیم گیری سریع تر.
خبر خوب این است که قدرتهای بزرگ احتمالاً محتاط خواهند بود – زیرا میدانند که واکنش یک دشمن چگونه خواهد بود. اما تاکنون هیچ قوانین توافق شده ای وجود ندارد.
آنیا مانوئل، یکی از مقامات سابق وزارت امور خارجه و اکنون یکی از مدیران گروه مشاوره رایس، هدلی، گیتس و مانوئل، اخیراً نوشت که حتی اگر چین و روسیه برای گفتگوهای کنترل تسلیحات در مورد هوش مصنوعی آماده نباشند، جلسات در این زمینه منجر به بحث و گفتگو خواهد شد. از چه کاربردهایی از هوش مصنوعی به عنوان “فراتر از رنگ پریده” دیده می شود.
البته، حتی پنتاگون نیز نگران موافقت با بسیاری از محدودیت ها خواهد بود.
دنی هیلیس، دانشمند مشهور کامپیوتر که از پیشگامان کامپیوترهای موازی که برای هوش مصنوعی استفاده میشد، میگوید: «من خیلی سخت جنگیدم تا سیاستی به دست بیاورم که اگر عناصر خودمختار سلاحها را دارید، باید راهی برای خاموش کردن آنها داشته باشید. آقای هیلیس، که در هیئت نوآوری دفاعی نیز خدمت می کرد، گفت که این مخالفت از سوی مقامات پنتاگون صورت گرفت که گفتند: “اگر ما بتوانیم آنها را خاموش کنیم، دشمن نیز می تواند آنها را خاموش کند.”
بنابراین خطرات بزرگتر ممکن است از سوی بازیگران فردی، تروریستها، گروههای باجافزار یا کشورهای کوچکتر با مهارتهای سایبری پیشرفته – مانند کره شمالی – باشد که یاد میگیرند چگونه یک نسخه کوچکتر و کممقدار ChatGPT را شبیهسازی کنند. و ممکن است متوجه شوند که نرم افزار مولد هوش مصنوعی برای سرعت بخشیدن به حملات سایبری و هدف قرار دادن اطلاعات نادرست عالی است.
تام برت، مسئول عملیات اعتماد و ایمنی در مایکروسافت، که با استفاده از فناوری جدید برای اصلاح موتورهای جستجوی خود به سرعت پیش می رود، در یک انجمن اخیر در دانشگاه جورج واشنگتن گفت که فکر می کند سیستم های هوش مصنوعی به مدافعان کمک می کنند تا رفتارهای غیرعادی را سریعتر از آنها تشخیص دهند. به مهاجمان کمک خواهد کرد. سایر کارشناسان مخالف هستند. اما او گفت که بیم آن میرود که این امر بتواند انتشار اطلاعات نادرست هدفمند را «فوقالعاده» کند.
همه اینها نشان دهنده یک دوره کاملاً جدید از کنترل تسلیحات است.
برخی از کارشناسان می گویند که از آنجایی که توقف گسترش ChatGPT و نرم افزارهای مشابه غیرممکن است، بهترین امید محدود کردن تراشه های تخصصی و سایر قدرت محاسباتی مورد نیاز برای پیشرفت فناوری است. این بدون شک یکی از فرمولهای مختلف کنترل تسلیحات خواهد بود که در چند سال آینده ارائه میشود، در زمانی که قدرتهای هستهای بزرگ، حداقل، علاقهای به مذاکره بر سر تسلیحات قدیمی و حتی کمتر از سلاحهای جدید ندارند.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.