به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،
توسط رودریگو لوریرو، کارشناس امنیت سایبری
رودریگو لوریرو مینویسد، اگر سازمانها به جای برخورد با دنیای ناراحتکنندهای که ما ایجاد کردهایم، به نادیده گرفتن مشکلات شایع ادامه دهند، همه چیز دیستوپیکتر میشود.
از آنجایی که بسیاری از کسبوکارها در مورد اجازه دادن به کارمندان امنیت سایبری برای استفاده از ابزارهای هوش مصنوعی در کار خود مردد هستند، از ترس این که این حوزه تنظیم نشده و هنوز توسعه نیافته است، متفکران کلیدی از صنایع مختلف اخیراً نامهای سرگشاده نوشتهاند و خواستار توقف آزمایشهای هوش مصنوعی پیشرفتهتر از ChatGPT-4 شدهاند.
حتی برخی می گویند این نامه کافی نیست و جامعه آمادگی مقابله با پیامدهای هوش مصنوعی را ندارد.
متأسفانه، جعبه پاندورا قبلاً باز شده است و کسانی که وانمود میکنند میتوانیم هر یک از این نوآوریها را معکوس کنیم، دچار توهم هستند.
این یک اختراع جدید نیز نیست: ما برای سالها با مدلهای محدود در تعامل بودهایم.
آیا می توانید تعداد دفعاتی را که از چت ربات یک وب سایت، دستیار تلفن هوشمند خود یا یک دستگاه خانگی مانند الکسا استفاده کرده اید، بشمارید؟
هوش مصنوعی در زندگی ما نفوذ کرده است، درست مانند اینترنت، تلفن های هوشمند و ابر قبل از آن. ترس قابل توجیه است، اما شرکت ها باید نگران مجرمان سایبری و پیشرفت و افزایش پیچیدگی حملات خود باشند.
مغلوب و مغرور
هکرهایی که از ChatGPT استفاده میکنند سریعتر و پیچیدهتر از قبل هستند و تحلیلگران امنیت سایبری که به ابزارهای مشابه دسترسی ندارند، میتوانند خیلی سریع خود را از این مهاجمان با کمک هوش مصنوعی مغلوب و پیشی بگیرند.
آنها از ChatGPT برای تولید کد برای ایمیل های فیشینگ، بدافزارها، ابزارهای رمزگذاری و حتی ایجاد بازارهای وب تاریک استفاده می کنند.
فرصتهای هکرها برای استفاده از هوش مصنوعی بیپایان است و در نتیجه، بسیاری از تحلیلگران نیز برای انجام کار خود به استفاده غیرمجاز از سیستمهای هوش مصنوعی متوسل میشوند.
با توجه به HelpNet Security، 96٪ از متخصصان امنیتی فردی را می شناسند که از ابزارهای غیرمجاز در سازمان خود استفاده می کند و 80٪ اعتراف کرده اند که خودشان از ابزارهای ممنوعه استفاده می کنند.
این ثابت می کند که هوش مصنوعی در حال حاضر یک دارایی پرکاربرد در صنعت امنیت سایبری است، بیشتر به دلیل ضرورت.
شرکتکنندگان در نظرسنجی حتی گفتند که ابزارهای غیرمجاز را به دلیل رابط کاربری بهتر (47%)، قابلیتهای تخصصیتر (46%) و امکان کار موثرتر (44%) را انتخاب میکنند.
نقص های کشنده ای که می توان از آنها سوء استفاده کرد
شرکتها برای کشف حکمرانی پیرامون هوش مصنوعی دچار مشکل شدهاند، اما در حالی که این کار را انجام میدهند، کارکنان آنها به وضوح قوانین را زیر پا میگذارند و احتمالاً عملیات شرکت را به خطر میاندازند.
بر اساس مطالعه Cyberhaven بر روی 1.6 میلیون کارگر، 3.1٪ اطلاعات محرمانه شرکت را در ChatGPT وارد می کنند. اگرچه این تعداد کم به نظر می رسد، اما 11 درصد از سوالات کاربران شامل اطلاعات خصوصی است.
این می تواند شامل نام، شماره تامین اجتماعی، فایل های داخلی شرکت و سایر اطلاعات محرمانه باشد.
ChatGPT از هر مکالمه ای که با کاربرانش دارد یاد می گیرد و اگر به درستی بررسی شود می تواند اطلاعات کاربر را بازیابی کند.
با توجه به اینکه چگونه هکرها می توانند سیستم را برای دادن اطلاعات پنهان قبلی به آنها دستکاری کنند، این یک نقص مرگبار برای استفاده شرکتی است.
مهمتر از آن، هوش مصنوعی مکانیسمهای امنیتی را که این شرکت در یک سرور شرکتی گنجانده است، میشناسد.
با مسلح شدن به این اطلاعات، مهاجم می تواند با موفقیت اطلاعات محرمانه را به دست آورد و توزیع کند.
ما نمی توانیم نوآوری را متوقف کنیم
چه ابر و چه اینترنت، ادغام فناوری های جدید همیشه باعث بحث و تردید و تردید شده است.
اما توقف نوآوری زمانی غیرممکن است که مجرمان به ابزارهای پیشرفته ای دسترسی داشته باشند که عملاً کار را برای آنها انجام می دهد.
برای پرداختن صحیح به این موضوع در مورد امنیت جامعه ما، شرکت ها باید قوانین حاکمیت قبلی را برای هوش مصنوعی اعمال کنند.
استفاده مجدد از رویههای اثباتشده تاریخی به شرکتها این امکان را میدهد تا با مهاجمان خود برسند و عدم تعادل قدرت را از بین ببرند.
مقررات ساده در میان متخصصان امنیت سایبری به شرکتها این امکان را میدهد تا نظارت کنند که کارکنان از چه ابزارهایی استفاده میکنند، چه زمانی از آنها استفاده میکنند و چه اطلاعاتی وارد میشود.
قراردادهای بین ارائهدهندگان فناوری و سازمانها نیز برای استفاده از ابر شرکتی رایج است و میتواند در حوزه مبهم هوش مصنوعی اعمال شود.
ما فقط می توانیم محیط های ایمن و کنترل شده ایجاد کنیم
ما از نقطه بی بازگشت عبور کرده ایم و پذیرش انتقادی تنها راه حل ما برای زندگی در دنیای مبتنی بر هوش مصنوعی است.
افزایش نوآوری، افزایش دسترسی عمومی و سهولت استفاده به مجرمان سایبری دست بالا را داده است که به سختی می توان آن را معکوس کرد.
برای تغییر اوضاع، شرکتها باید هوش مصنوعی را در محیطی امن و کنترلشده بپذیرند.
فناوری پیشرفته تقریباً غیرقابل کنترل است و تحلیلگران امنیت سایبری باید یاد بگیرند که چگونه می توان از آن به طور مسئولانه استفاده کرد.
آموزش کارمندان و توسعه ابزارهای سازمانی، رویه های امنیت سایبری را تقویت می کند تا زمانی که غول صنعت مانند مایکروسافت از ابزارهایی مانند ابزار تحلیل امنیتی اخیراً اعلام شده Security Copilot برای متحول کردن صنعت استفاده کند.
در این میان، شرکت ها باید سر خود را در شن و ماسه نگذارند، به امید اینکه واقعیت تغییر کند.
اگر سازمانها به جای برخورد با دنیای ناراحتکنندهای که ما ایجاد کردهایم، به نادیده گرفتن مشکلات شایع ادامه دهند، همه چیز دیستوپیکتر میشود.
رودریگو لوریرو یک متخصص امنیت سایبری است. او به عنوان مدیرعامل NewPush و موسس و شریک مدیریت در CyberVerse Advisors مستقر در واشنگتن دی سی خدمت می کند.
در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.