به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،
توسط خوزه بلایا، مدیر مهندسی، دسترسی به اینترنت خصوصی
خوزه بلایا می نویسد، به عنوان یک فرد، ما باید اقداماتی را برای محافظت از داده های خود و حفظ امنیت اطلاعات شخصی خود انجام دهیم.
از زمان راه اندازی، ChatGPT و امکاناتی که هوش مصنوعی به ارمغان می آورد به شدت مورد بحث قرار گرفته است.
در حالی که بسیاری از این ابزار تقریباً بی حد و حصر که عقل انسان را بزرگ می کند تعجب می کردند، نگرانی هایی در مورد خطرات عمدتاً نامشخصی که این سیستم عامل های یادگیری هوشمند ارائه می دهند، مطرح شده است.
ماه گذشته، ایتالیا علیه ChatGPT موضع گرفت و اولین کشور غربی بود که این پلتفرم را ممنوع کرد تا زمانی که ChatGPT به حریم خصوصی احترام بگذارد.
بنابراین پیامدهای حریم خصوصی این ابزارهای جدید چیست و چقدر باید نگران آنها باشیم؟
سیاهچاله حریم خصوصی هوش مصنوعی مکالمه ای
با توجه به روشی که ChatGPT در آن دادهها را جمعآوری میکند، میتواند از طیف وسیعی از منابع، از جمله رسانههای اجتماعی، پستهای وبلاگ، بررسی محصول، انجمنهای گفتگو و حتی رشتههای ایمیل در صورت دسترسی عمومی استفاده کند.
این بدان معناست که هم اطلاعات شخصی و هم داده ها بدون اطلاع یا رضایت افراد استفاده می شود.
اگر در ChatGPT ثبت نام می کنید، با یک خط مشی رازداری موافقت می کنید که به شما امکان می دهد آدرس IP، نوع مرورگر و تنظیمات شما ذخیره شود، بدون این که به تمام تعاملات داده ای که با ChatGPT و فعالیت های گسترده تر مرور اینترنت خود دارید اشاره کنیم.
همه اینها را می توان با اشخاص ثالث نامشخص “بدون اطلاع بیشتر به شما” به اشتراک گذاشت.
اطلاعات شخصی ممکن است توسط شخص اشتباهی که سوال درست را می پرسد افشا شود
ChatGPT با تجزیه و تحلیل مکالمات شما با آن در کنار سایر فعالیت های آنلاین شما، نمایه ای از علایق، باورها و نگرانی های هر کاربر ایجاد می کند.
این موضوع در مورد موتورهای جستجوی امروزی نیز صدق می کند، اما ChatGPT به عنوان یک پلتفرم یادگیری «هوشمند» این پتانسیل را دارد که هم با کاربر و هم با اطلاعاتی که به آن داده می شود به روشی کاملاً جدید درگیر شود و دیالوگی ایجاد کند که ممکن است شما را فریب دهد تا فکر کنید خودتان هستید. با یک انسان دیگر صحبت می کنند، نه یک سیستم هوش مصنوعی.
ChatGPT همه این ورودی ها را با هم جمع می کند و آنها را در مقیاسی که قبلاً امکان پذیر نبود تجزیه و تحلیل می کند تا “به هر چیزی پاسخ دهد”.
اگر سوال درستی از شما پرسیده شود، به راحتی میتواند اطلاعات شخصی کاربران خود و هر کسی را که در اینترنت پست کرده یا نام برده شده است، افشا کند.
بدون رضایت یک فرد، میتواند عقاید سیاسی یا گرایش جنسی را فاش کند، به نوبه خود، این میتواند به انتشار اطلاعات شرمآور یا حتی ویرانکننده شغل باشد.
تمایل ثابت ChatGPT به اشتباه گرفتن و حتی ساختن چیزها می تواند منجر به ادعاهای مخرب و نادرست شود.
با این وجود، برخی از افراد با این باور که چت بات اطلاعات مخفی و مخفی قبلی را کشف کرده است، آنها را باور می کنند و اظهارات نادرست را بیشتر منتشر می کنند.
آیا پادمان های اساسی می توانند با این مسائل مقابله کنند؟
با توجه به قدرت این سیستم های یادگیری ماشینی، ایجاد حتی پادمان های اولیه در برنامه نویسی آنها دشوار است.
کل فرض آنها این است که آنها می توانند حجم عظیمی از داده ها را تجزیه و تحلیل کنند، همه گوشه های آنچه را که به صورت آنلاین در دسترس عموم است جستجو کنند و خیلی سریع از آن نتیجه گیری کنند.
هیچ راهی برای تشخیص زمانی که چت بات بدون اطلاع یا رضایت شخصی در حال جمعآوری دادهها است وجود ندارد و بدون منابع، هیچ فرصتی برای بررسی قابلیت اطمینان اطلاعاتی که به شما داده میشود وجود ندارد.
ما شاهد سهولتی بودیم که مردم قبلاً توانستهاند محافظهای فعلی را «جیل بریک» کنند و امید چندانی به این که قوانین دیگری که در پلتفرمها تعبیه شدهاند نیز نتوانند دور زده شوند، میدهد.
قوانین حفظ حریم خصوصی همگام نیستند
قوانین حفظ حریم خصوصی کارهای زیادی برای همگام شدن با این تهدید جدید انجام می دهند، که هنوز میزان کامل آن را ندیده ایم.
روشی که ChatGPT و دیگران از دادههای ما استفاده میکنند، نقض آشکار حریم خصوصی است، به خصوص زمانی که حساس باشد و بتوان از آن برای شناسایی ما استفاده کرد.
یکپارچگی متنی، اصل اصلی قوانین حریم خصوصی موجود، بیان میکند که حتی زمانی که اطلاعات یا دادههای شخصی در دسترس عموم است، باز هم نباید خارج از زمینه اصلی آن افشا شود. این قانون دیگری است که توسط ChatGPT نادیده گرفته شده است.
ما حتی به ندرت به نقض حفاظت از داده های ذاتی در نحوه یادگیری چت ربات های هوش مصنوعی پرداخته ایم.
در حال حاضر هیچ روشی برای افراد وجود ندارد که بررسی کنند چه اطلاعات شخصی روی آنها ذخیره می شود یا درخواست حذف آنها را مانند سایر شرکت ها انجام دهید.
همچنین از ابتدا رضایت ندادهایم که این دادهها ذخیره شوند – فقط به این دلیل که در جایی در اینترنت وجود دارد، نباید به ChatGPT حق استفاده از آن را بدهد.
چگونه می توانیم از حریم خصوصی خود در این دوره جدید هوش مصنوعی محافظت کنیم؟
دسترسی به اینترنت خصوصی خطرات حریم خصوصی ذاتی ChatGPT و دیگر پلتفرمهای هوش مصنوعی را از نزدیک زیر نظر دارد.
با توجه به اینکه بسیاری از رقبا به شدت به دنبال پیشروی OpenAI هستند، از جمله مایکروسافت بینگ، گوگل بارد و غول فناوری چینی Baidu’s Ernie، و در بخشی که تقریباً به طور کامل کنترل نشده است، پیامدهای حریم خصوصی و امنیتی تنها در حال افزایش است.
در حالی که از پتانسیل هوش مصنوعی استقبال می کنیم، باید مراقب تهدید حریم خصوصی آن باشیم. قوانین و مقرراتی که از حریم خصوصی ما محافظت می کنند باید سازگار شوند.
به عنوان یک فرد، ما باید اقداماتی را برای محافظت از داده های خود و حفظ امنیت اطلاعات شخصی خود انجام دهیم.
این شامل فکر کردن به اینکه دقیقاً چه چیزهایی را به اشتراک میگذاریم به صورت آنلاین میپردازیم، در حالی که میدانیم اکنون یک پلت فرم یادگیری ماشینی به راحتی میتواند این اطلاعات را پیدا، استخراج و با هر کسی به اشتراک بگذارد.
در نهایت، ما باید مراقب باشیم که چقدر به این فناوری جدید اعتماد می کنیم، به جای اینکه کورکورانه پاسخ هایی را که به ما ارائه می شود، زیر سوال ببریم.
خوزه بلایا مدیر مهندسی در Private Internet Access، یک شرکت حفظ حریم خصوصی آنلاین است.
در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.