به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
به گفته کارشناسان، چت بات ها با حذف اشتباهات دستوری و املایی فاحش، خط دفاعی کلیدی در برابر ایمیل های فیشینگ جعلی را از بین می برند.
این هشدار در حالی است که سازمان پلیس یوروپل یک مشاوره بینالمللی درباره استفاده مجرمانه بالقوه ChatGPT و دیگر «مدلهای زبان بزرگ» صادر میکند.
ایمیل های فیشینگ یک سلاح شناخته شده برای مجرمان سایبری و فریب گیرندگان برای کلیک کردن بر روی پیوندی است که نرم افزارهای مخرب را دانلود می کند یا آنها را فریب می دهد تا جزئیات شخصی مانند رمز عبور یا شماره پین را تحویل دهند.
بر اساس گزارش دفتر آمار ملی، نیمی از بزرگسالان در انگلستان و ولز در سال گذشته یک ایمیل فیشینگ دریافت کردهاند، در حالی که کسبوکارهای بریتانیا تلاشهای فیشینگ را رایجترین شکل تهدید سایبری شناسایی کردهاند.
با این حال، یک نقص اساسی در برخی از تلاشهای فیشینگ – املا و گرامر ضعیف – توسط رباتهای چت هوش مصنوعی (AI) اصلاح میشود که میتواند خطاهایی را که فیلترهای هرزنامه را حذف میکند یا به خوانندگان انسانی هشدار میدهد اصلاح کند.
کوری توماس، مدیر اجرایی شرکت امنیت سایبری آمریکایی Rapid7 میگوید: اکنون هر هکری میتواند از هوش مصنوعی استفاده کند که با تمام غلطهای املایی و دستور زبان ضعیف سروکار دارد. «این ایده که میتوانید برای تشخیص حمله فیشینگ به دنبال گرامر یا املای بد باشید، دیگر صادق نیست. قبلاً می گفتیم که می توانید حملات فیشینگ را شناسایی کنید زیرا ایمیل ها به شکل خاصی به نظر می رسند. این دیگر کار نمی کند.»
دادهها نشان میدهد که ChatGPT، پیشرو در بازاری که پس از راهاندازی آن در سال گذشته بسیار پرطرفدار شد، برای جرایم سایبری مورد استفاده قرار میگیرد، با ظهور «مدلهای زبان بزرگ» (LLM) که یکی از اولین کاربردهای تجاری قابل توجه خود را در زمینه ساخت ارتباطات مخرب
دادههای کارشناسان امنیت سایبری در شرکت بریتانیایی Darktrace نشان میدهد که ایمیلهای فیشینگ به طور فزایندهای توسط رباتها نوشته میشوند و به مجرمان اجازه میدهند بر انگلیسی ضعیف غلبه کنند و پیامهای طولانیتری ارسال کنند که احتمال کمتری دارد توسط فیلترهای هرزنامه دستگیر شوند.
از زمانی که ChatGPT در سال گذشته رایج شد، حجم کلی کلاهبرداری های ایمیل مخرب توسط دستگاه نظارت Darktrace کاهش یافته است، اما پیچیدگی زبانی این ایمیل ها به شدت افزایش یافته است. Max Heinemeyer، مدیر محصول شرکت، میگوید که تعداد قابل توجهی از کلاهبردارانی که پیشنویس فیشینگ و سایر ایمیلهای مخرب را تهیه میکنند، توانایی نوشتن نثر طولانیتر و پیچیدهتر را به دست آوردهاند.
هاین مایر گفت: «حتی اگر کسی بگوید، نگران ChatGPT نباشید، آن را تجاری میکند، خب، جن از بطری خارج شده است». آنچه که ما فکر میکنیم تأثیر فوری بر چشمانداز تهدید دارد این است که این نوع فناوری برای مهندسی اجتماعی بهتر و مقیاسپذیرتر استفاده میشود: هوش مصنوعی به شما امکان میدهد ایمیلهای بسیار باورپذیر «فیشینگ» و سایر ارتباطات نوشتاری را با بسیار کم ایجاد کنید. تلاش، به ویژه در مقایسه با آنچه که قبلاً باید انجام دهید.»
Heinemeyer گفت: “Spear-phishing”، نام ایمیلهایی که تلاش میکنند هدفی خاص را برای دادن رمز عبور یا سایر اطلاعات حساس ترغیب کنند، ساخت متقاعدکننده برای مهاجمان دشوار است، اما LLMهایی مانند ChatGPT این کار را آسان میکنند. من فقط میتوانم رسانههای اجتماعی شما را خزیدم و آن را در GPT قرار دهم، و این یک ایمیل سفارشی فوقالعاده باورپذیر ایجاد میکند. حتی اگر به زبان انگلیسی آشنایی کامل نداشته باشم، میتوانم چیزی بسازم که از انسان متمایز نباشد.»
در گزارش مشاوره ای یوروپل، این سازمان مجموعه مشابهی از مشکلات احتمالی ناشی از ظهور چت ربات های هوش مصنوعی از جمله تقلب و مهندسی اجتماعی، اطلاعات نادرست و جرایم سایبری را برجسته کرد. این سیستم همچنین برای راه رفتن مجرمان احتمالی از طریق مراحل واقعی مورد نیاز برای آسیب رساندن به دیگران مفید است. «امکان استفاده از مدل برای ارائه مراحل خاص با پرسیدن سؤالات متنی به این معنی است که درک بهتر و متعاقباً انجام انواع مختلف جرم برای بازیگران بدخواه به طور قابل توجهی آسان تر است.»
در این ماه گزارشی توسط Check Point، یک شرکت امنیت سایبری آمریکا و اسرائیل، اعلام کرد که از آخرین نسخه ChatGPT برای تولید یک ایمیل فیشینگ معتبر استفاده کرده است. روشهای ایمنی چتبات را با گفتن این که به یک الگوی ایمیل فیشینگ برای برنامه آگاهی کارکنان نیاز دارد، دور زد.
گوگل نیز به رقابت ربات های چت پیوسته و هفته گذشته محصول Bard خود را در بریتانیا و ایالات متحده عرضه کرد. آبان نیوز از او خواسته بود تا یک ایمیل پیشنویسی کند تا کسی را متقاعد کند تا روی پیوندی که ظاهراً مخرب به نظر میرسد، کلیک کند، بارد با کمال میل در صورت عدم دقت عمل کرد: «امروز برای شما مینویسم تا پیوندی به مقالهای را به اشتراک بگذارم که فکر میکنم برای شما جالب خواهد بود.»
با تماس با آبان نیوز، گوگل به خط مشی “استفاده ممنوع” خود برای هوش مصنوعی اشاره کرد که می گوید کاربران نباید از مدل های هوش مصنوعی برای ایجاد محتوا برای “فعالیت های فریبنده یا متقلبانه، کلاهبرداری، فیشینگ یا بدافزار” استفاده کنند.
برای اظهار نظر با OpenAI، خالق ChatGPT تماس گرفته شده است. شرایط استفاده شرکت بیان میکند که کاربران «نمیتوانند (i) از خدمات بهگونهای استفاده کنند که حقوق هر شخص را نقض، سوء استفاده یا نقض کند».
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.