هوش مصنوعی یک تهدید هسته ای برای امنیت سایبری لقب گرفته است. اما می توان از آن برای دفاع نیز استفاده کرد

به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،

توسط رودریگو لوریرو، کارشناس امنیت سایبری

رودریگو لوریرو می‌نویسد، اگر سازمان‌ها به جای برخورد با دنیای ناراحت‌کننده‌ای که ما ایجاد کرده‌ایم، به نادیده گرفتن مشکلات شایع ادامه دهند، همه چیز دیستوپیک‌تر می‌شود.

از آنجایی که بسیاری از کسب‌وکارها در مورد اجازه دادن به کارمندان امنیت سایبری برای استفاده از ابزارهای هوش مصنوعی در کار خود مردد هستند، از ترس این که این حوزه تنظیم نشده و هنوز توسعه نیافته است، متفکران کلیدی از صنایع مختلف اخیراً نامه‌ای سرگشاده نوشته‌اند و خواستار توقف آزمایش‌های هوش مصنوعی پیشرفته‌تر از ChatGPT-4 شده‌اند.

حتی برخی می گویند این نامه کافی نیست و جامعه آمادگی مقابله با پیامدهای هوش مصنوعی را ندارد.

متأسفانه، جعبه پاندورا قبلاً باز شده است و کسانی که وانمود می‌کنند می‌توانیم هر یک از این نوآوری‌ها را معکوس کنیم، دچار توهم هستند.

این یک اختراع جدید نیز نیست: ما برای سال‌ها با مدل‌های محدود در تعامل بوده‌ایم.

آیا می توانید تعداد دفعاتی را که از چت ربات یک وب سایت، دستیار تلفن هوشمند خود یا یک دستگاه خانگی مانند الکسا استفاده کرده اید، بشمارید؟

هوش مصنوعی در زندگی ما نفوذ کرده است، درست مانند اینترنت، تلفن های هوشمند و ابر قبل از آن. ترس قابل توجیه است، اما شرکت ها باید نگران مجرمان سایبری و پیشرفت و افزایش پیچیدگی حملات خود باشند.

مغلوب و مغرور

هکرهایی که از ChatGPT استفاده می‌کنند سریع‌تر و پیچیده‌تر از قبل هستند و تحلیلگران امنیت سایبری که به ابزارهای مشابه دسترسی ندارند، می‌توانند خیلی سریع خود را از این مهاجمان با کمک هوش مصنوعی مغلوب و پیشی بگیرند.

آنها از ChatGPT برای تولید کد برای ایمیل های فیشینگ، بدافزارها، ابزارهای رمزگذاری و حتی ایجاد بازارهای وب تاریک استفاده می کنند.

فرصت‌های هکرها برای استفاده از هوش مصنوعی بی‌پایان است و در نتیجه، بسیاری از تحلیل‌گران نیز برای انجام کار خود به استفاده غیرمجاز از سیستم‌های هوش مصنوعی متوسل می‌شوند.

با توجه به HelpNet Security، 96٪ از متخصصان امنیتی فردی را می شناسند که از ابزارهای غیرمجاز در سازمان خود استفاده می کند و 80٪ اعتراف کرده اند که خودشان از ابزارهای ممنوعه استفاده می کنند.

این ثابت می کند که هوش مصنوعی در حال حاضر یک دارایی پرکاربرد در صنعت امنیت سایبری است، بیشتر به دلیل ضرورت.

شرکت‌کنندگان در نظرسنجی حتی گفتند که ابزارهای غیرمجاز را به دلیل رابط کاربری بهتر (47%)، قابلیت‌های تخصصی‌تر (46%) و امکان کار موثرتر (44%) را انتخاب می‌کنند.

نقص های کشنده ای که می توان از آنها سوء استفاده کرد

شرکت‌ها برای کشف حکمرانی پیرامون هوش مصنوعی دچار مشکل شده‌اند، اما در حالی که این کار را انجام می‌دهند، کارکنان آنها به وضوح قوانین را زیر پا می‌گذارند و احتمالاً عملیات شرکت را به خطر می‌اندازند.

بر اساس مطالعه Cyberhaven بر روی 1.6 میلیون کارگر، 3.1٪ اطلاعات محرمانه شرکت را در ChatGPT وارد می کنند. اگرچه این تعداد کم به نظر می رسد، اما 11 درصد از سوالات کاربران شامل اطلاعات خصوصی است.

این می تواند شامل نام، شماره تامین اجتماعی، فایل های داخلی شرکت و سایر اطلاعات محرمانه باشد.

ChatGPT از هر مکالمه ای که با کاربرانش دارد یاد می گیرد و اگر به درستی بررسی شود می تواند اطلاعات کاربر را بازیابی کند.

با توجه به اینکه چگونه هکرها می توانند سیستم را برای دادن اطلاعات پنهان قبلی به آنها دستکاری کنند، این یک نقص مرگبار برای استفاده شرکتی است.

مهمتر از آن، هوش مصنوعی مکانیسم‌های امنیتی را که این شرکت در یک سرور شرکتی گنجانده است، می‌شناسد.

با مسلح شدن به این اطلاعات، مهاجم می تواند با موفقیت اطلاعات محرمانه را به دست آورد و توزیع کند.

ما نمی توانیم نوآوری را متوقف کنیم

چه ابر و چه اینترنت، ادغام فناوری های جدید همیشه باعث بحث و تردید و تردید شده است.

اما توقف نوآوری زمانی غیرممکن است که مجرمان به ابزارهای پیشرفته ای دسترسی داشته باشند که عملاً کار را برای آنها انجام می دهد.

برای پرداختن صحیح به این موضوع در مورد امنیت جامعه ما، شرکت ها باید قوانین حاکمیت قبلی را برای هوش مصنوعی اعمال کنند.

استفاده مجدد از رویه‌های اثبات‌شده تاریخی به شرکت‌ها این امکان را می‌دهد تا با مهاجمان خود برسند و عدم تعادل قدرت را از بین ببرند.

مقررات ساده در میان متخصصان امنیت سایبری به شرکت‌ها این امکان را می‌دهد تا نظارت کنند که کارکنان از چه ابزارهایی استفاده می‌کنند، چه زمانی از آن‌ها استفاده می‌کنند و چه اطلاعاتی وارد می‌شود.

قراردادهای بین ارائه‌دهندگان فناوری و سازمان‌ها نیز برای استفاده از ابر شرکتی رایج است و می‌تواند در حوزه مبهم هوش مصنوعی اعمال شود.

ما فقط می توانیم محیط های ایمن و کنترل شده ایجاد کنیم

ما از نقطه بی بازگشت عبور کرده ایم و پذیرش انتقادی تنها راه حل ما برای زندگی در دنیای مبتنی بر هوش مصنوعی است.

افزایش نوآوری، افزایش دسترسی عمومی و سهولت استفاده به مجرمان سایبری دست بالا را داده است که به سختی می توان آن را معکوس کرد.

برای تغییر اوضاع، شرکت‌ها باید هوش مصنوعی را در محیطی امن و کنترل‌شده بپذیرند.

فناوری پیشرفته تقریباً غیرقابل کنترل است و تحلیلگران امنیت سایبری باید یاد بگیرند که چگونه می توان از آن به طور مسئولانه استفاده کرد.

آموزش کارمندان و توسعه ابزارهای سازمانی، رویه های امنیت سایبری را تقویت می کند تا زمانی که غول صنعت مانند مایکروسافت از ابزارهایی مانند ابزار تحلیل امنیتی اخیراً اعلام شده Security Copilot برای متحول کردن صنعت استفاده کند.

در این میان، شرکت ها باید سر خود را در شن و ماسه نگذارند، به امید اینکه واقعیت تغییر کند.

اگر سازمان‌ها به جای برخورد با دنیای ناراحت‌کننده‌ای که ما ایجاد کرده‌ایم، به نادیده گرفتن مشکلات شایع ادامه دهند، همه چیز دیستوپیک‌تر می‌شود.

رودریگو لوریرو یک متخصص امنیت سایبری است. او به عنوان مدیرعامل NewPush و موسس و شریک مدیریت در CyberVerse Advisors مستقر در واشنگتن دی سی خدمت می کند.

در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …