کارشناسان می گویند چت ربات های هوش مصنوعی تشخیص ایمیل های فیشینگ را سخت تر می کند | چت ربات ها

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

به گفته کارشناسان، چت بات ها با حذف اشتباهات دستوری و املایی فاحش، خط دفاعی کلیدی در برابر ایمیل های فیشینگ جعلی را از بین می برند.

این هشدار در حالی است که سازمان پلیس یوروپل یک مشاوره بین‌المللی درباره استفاده مجرمانه بالقوه ChatGPT و دیگر «مدل‌های زبان بزرگ» صادر می‌کند.

ایمیل های فیشینگ یک سلاح شناخته شده برای مجرمان سایبری و فریب گیرندگان برای کلیک کردن بر روی پیوندی است که نرم افزارهای مخرب را دانلود می کند یا آنها را فریب می دهد تا جزئیات شخصی مانند رمز عبور یا شماره پین ​​را تحویل دهند.

بر اساس گزارش دفتر آمار ملی، نیمی از بزرگسالان در انگلستان و ولز در سال گذشته یک ایمیل فیشینگ دریافت کرده‌اند، در حالی که کسب‌وکارهای بریتانیا تلاش‌های فیشینگ را رایج‌ترین شکل تهدید سایبری شناسایی کرده‌اند.

با این حال، یک نقص اساسی در برخی از تلاش‌های فیشینگ – املا و گرامر ضعیف – توسط ربات‌های چت هوش مصنوعی (AI) اصلاح می‌شود که می‌تواند خطاهایی را که فیلترهای هرزنامه را حذف می‌کند یا به خوانندگان انسانی هشدار می‌دهد اصلاح کند.

کوری توماس، مدیر اجرایی شرکت امنیت سایبری آمریکایی Rapid7 می‌گوید: اکنون هر هکری می‌تواند از هوش مصنوعی استفاده کند که با تمام غلط‌های املایی و دستور زبان ضعیف سروکار دارد. «این ایده که می‌توانید برای تشخیص حمله فیشینگ به دنبال گرامر یا املای بد باشید، دیگر صادق نیست. قبلاً می گفتیم که می توانید حملات فیشینگ را شناسایی کنید زیرا ایمیل ها به شکل خاصی به نظر می رسند. این دیگر کار نمی کند.»

داده‌ها نشان می‌دهد که ChatGPT، پیشرو در بازاری که پس از راه‌اندازی آن در سال گذشته بسیار پرطرفدار شد، برای جرایم سایبری مورد استفاده قرار می‌گیرد، با ظهور «مدل‌های زبان بزرگ» (LLM) که یکی از اولین کاربردهای تجاری قابل توجه خود را در زمینه ساخت ارتباطات مخرب

داده‌های کارشناسان امنیت سایبری در شرکت بریتانیایی Darktrace نشان می‌دهد که ایمیل‌های فیشینگ به طور فزاینده‌ای توسط ربات‌ها نوشته می‌شوند و به مجرمان اجازه می‌دهند بر انگلیسی ضعیف غلبه کنند و پیام‌های طولانی‌تری ارسال کنند که احتمال کمتری دارد توسط فیلترهای هرزنامه دستگیر شوند.

از زمانی که ChatGPT در سال گذشته رایج شد، حجم کلی کلاهبرداری های ایمیل مخرب توسط دستگاه نظارت Darktrace کاهش یافته است، اما پیچیدگی زبانی این ایمیل ها به شدت افزایش یافته است. Max Heinemeyer، مدیر محصول شرکت، می‌گوید که تعداد قابل توجهی از کلاهبردارانی که پیش‌نویس فیشینگ و سایر ایمیل‌های مخرب را تهیه می‌کنند، توانایی نوشتن نثر طولانی‌تر و پیچیده‌تر را به دست آورده‌اند.

هاین مایر گفت: «حتی اگر کسی بگوید، نگران ChatGPT نباشید، آن را تجاری می‌کند، خب، جن از بطری خارج شده است». آنچه که ما فکر می‌کنیم تأثیر فوری بر چشم‌انداز تهدید دارد این است که این نوع فناوری برای مهندسی اجتماعی بهتر و مقیاس‌پذیرتر استفاده می‌شود: هوش مصنوعی به شما امکان می‌دهد ایمیل‌های بسیار باورپذیر «فیشینگ» و سایر ارتباطات نوشتاری را با بسیار کم ایجاد کنید. تلاش، به ویژه در مقایسه با آنچه که قبلاً باید انجام دهید.»

از تبلیغات قبلی خبرنامه رد شوید

Heinemeyer گفت: “Spear-phishing”، نام ایمیل‌هایی که تلاش می‌کنند هدفی خاص را برای دادن رمز عبور یا سایر اطلاعات حساس ترغیب کنند، ساخت متقاعدکننده برای مهاجمان دشوار است، اما LLM‌هایی مانند ChatGPT این کار را آسان می‌کنند. من فقط می‌توانم رسانه‌های اجتماعی شما را خزیدم و آن را در GPT قرار دهم، و این یک ایمیل سفارشی فوق‌العاده باورپذیر ایجاد می‌کند. حتی اگر به زبان انگلیسی آشنایی کامل نداشته باشم، می‌توانم چیزی بسازم که از انسان متمایز نباشد.»

در گزارش مشاوره ای یوروپل، این سازمان مجموعه مشابهی از مشکلات احتمالی ناشی از ظهور چت ربات های هوش مصنوعی از جمله تقلب و مهندسی اجتماعی، اطلاعات نادرست و جرایم سایبری را برجسته کرد. این سیستم همچنین برای راه رفتن مجرمان احتمالی از طریق مراحل واقعی مورد نیاز برای آسیب رساندن به دیگران مفید است. «امکان استفاده از مدل برای ارائه مراحل خاص با پرسیدن سؤالات متنی به این معنی است که درک بهتر و متعاقباً انجام انواع مختلف جرم برای بازیگران بدخواه به طور قابل توجهی آسان تر است.»

در این ماه گزارشی توسط Check Point، یک شرکت امنیت سایبری آمریکا و اسرائیل، اعلام کرد که از آخرین نسخه ChatGPT برای تولید یک ایمیل فیشینگ معتبر استفاده کرده است. روش‌های ایمنی چت‌بات را با گفتن این که به یک الگوی ایمیل فیشینگ برای برنامه آگاهی کارکنان نیاز دارد، دور زد.

گوگل نیز به رقابت ربات های چت پیوسته و هفته گذشته محصول Bard خود را در بریتانیا و ایالات متحده عرضه کرد. آبان نیوز از او خواسته بود تا یک ایمیل پیش‌نویسی کند تا کسی را متقاعد کند تا روی پیوندی که ظاهراً مخرب به نظر می‌رسد، کلیک کند، بارد با کمال میل در صورت عدم دقت عمل کرد: «امروز برای شما می‌نویسم تا پیوندی به مقاله‌ای را به اشتراک بگذارم که فکر می‌کنم برای شما جالب خواهد بود.»

با تماس با آبان نیوز، گوگل به خط مشی “استفاده ممنوع” خود برای هوش مصنوعی اشاره کرد که می گوید کاربران نباید از مدل های هوش مصنوعی برای ایجاد محتوا برای “فعالیت های فریبنده یا متقلبانه، کلاهبرداری، فیشینگ یا بدافزار” استفاده کنند.

برای اظهار نظر با OpenAI، خالق ChatGPT تماس گرفته شده است. شرایط استفاده شرکت بیان می‌کند که کاربران «نمی‌توانند (i) از خدمات به‌گونه‌ای استفاده کنند که حقوق هر شخص را نقض، سوء استفاده یا نقض کند».

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …