آیا خطری که ChatGPT برای حریم خصوصی ایجاد می کند به همان اندازه که به نظر می رسد بد است؟

به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،

توسط خوزه بلایا، مدیر مهندسی، دسترسی به اینترنت خصوصی

از زمان راه اندازی، ChatGPT و امکاناتی که هوش مصنوعی به ارمغان می آورد به شدت مورد بحث قرار گرفته است.

در حالی که بسیاری از این ابزار تقریباً بی حد و حصر که عقل انسان را بزرگ می کند تعجب می کردند، نگرانی هایی در مورد خطرات عمدتاً نامشخصی که این سیستم عامل های یادگیری هوشمند ارائه می دهند، مطرح شده است.

ماه گذشته، ایتالیا علیه ChatGPT موضع گرفت و اولین کشور غربی بود که این پلتفرم را ممنوع کرد تا زمانی که ChatGPT به حریم خصوصی احترام بگذارد.

بنابراین پیامدهای حریم خصوصی این ابزارهای جدید چیست و چقدر باید نگران آنها باشیم؟

سیاهچاله حریم خصوصی ChatGPT

با توجه به روشی که ChatGPT در آن داده‌ها را جمع‌آوری می‌کند، می‌تواند از طیف وسیعی از منابع، از جمله رسانه‌های اجتماعی، پست‌های وبلاگ، بررسی محصول، انجمن‌های گفتگو و حتی رشته‌های ایمیل در صورت دسترسی عمومی استفاده کند.

این بدان معناست که هم اطلاعات شخصی و هم داده ها بدون اطلاع یا رضایت افراد استفاده می شود.

اگر در ChatGPT ثبت نام می کنید، با یک خط مشی رازداری موافقت می کنید که به شما امکان می دهد آدرس IP، نوع مرورگر و تنظیمات شما ذخیره شود، نه اینکه به تمام تعاملات داده ای که با ChatGPT دارید و فعالیت گسترده تر مرور اینترنت شما اشاره کنیم.

همه اینها را می توان با اشخاص ثالث نامشخص “بدون اطلاع بیشتر به شما” به اشتراک گذاشت.

ChatGPT با تجزیه و تحلیل مکالمات شما با آن در کنار سایر فعالیت های آنلاین شما، نمایه ای از علایق، باورها و نگرانی های هر کاربر ایجاد می کند.

این موضوع در مورد موتورهای جستجوی امروزی نیز صادق است. اما ChatGPT به‌عنوان یک پلت‌فرم یادگیری «هوشمند» این پتانسیل را دارد که هم با کاربر و هم با اطلاعاتی که به آن داده می‌شود به شیوه‌ای کاملاً جدید درگیر شود و دیالوگی ایجاد کند که ممکن است شما را فریب دهد که فکر کنید با انسان دیگری صحبت می‌کنید، نه یک هوش مصنوعی. سیستم.

ربات‌ها نیز می‌توانند کارها را اشتباه انجام دهند

ChatGPT همه این ورودی ها را با هم جمع می کند و آنها را در مقیاسی که قبلاً امکان پذیر نبود تجزیه و تحلیل می کند تا “به هر چیزی پاسخ دهد”.

اگر سوال درستی از شما پرسیده شود، به راحتی می‌تواند اطلاعات شخصی کاربران خود و هر کسی را که در اینترنت پست کرده یا نام برده شده است، افشا کند.

بدون رضایت یک فرد، می‌تواند عقاید سیاسی یا گرایش جنسی را فاش کند و می‌تواند به معنای انتشار اطلاعات شرم‌آور یا حتی ویران‌کننده شغل باشد.

تمایل ثابت ChatGPT به اشتباه گرفتن و حتی ساختن چیزها می تواند منجر به ادعاهای مخرب و نادرست شود.

با این وجود، برخی از افراد با این باور که چت بات اطلاعات مخفی و مخفی قبلی را کشف کرده است، آنها را باور می کنند و اظهارات نادرست را بیشتر منتشر می کنند.

آیا پادمان های اساسی می توانند با این مسائل مقابله کنند؟

با توجه به قدرت این سیستم های یادگیری ماشینی، ایجاد حتی پادمان های اولیه در برنامه نویسی آنها دشوار است.

کل فرض آنها این است که آنها می توانند حجم عظیمی از داده ها را تجزیه و تحلیل کنند، همه گوشه های آنچه را که به صورت آنلاین در دسترس عموم است جستجو کنند و خیلی سریع از آن نتیجه گیری کنند.

هیچ راهی برای تشخیص زمانی که چت بات بدون اطلاع یا رضایت شخصی در حال جمع‌آوری داده‌ها است وجود ندارد و بدون منابع، هیچ فرصتی برای بررسی قابلیت اطمینان اطلاعاتی که به شما داده می‌شود وجود ندارد.

ما شاهد سهولتی بودیم که مردم قبلاً توانسته‌اند محافظ‌های فعلی را «جیل بریک» کنند، و امید چندانی به این که قوانین دیگری که در پلتفرم‌ها تعبیه شده‌اند نیز نتوانند به دور آن‌ها مورد استفاده قرار گیرند، می‌دهد.

قوانین حفظ حریم خصوصی با سرعت اختراعات مطابقت ندارند

قوانین حفظ حریم خصوصی کارهای زیادی باید انجام دهند تا با این تهدید جدید که هنوز ندیده‌ایم کامل شود. روشی که ChatGPT و دیگران از داده‌های ما استفاده می‌کنند، نقض آشکار حریم خصوصی است. به خصوص زمانی که حساس باشد و بتوان از آن برای شناسایی ما استفاده کرد.

یکپارچگی متنی، اصل اصلی قوانین حریم خصوصی موجود، بیان می‌کند که حتی زمانی که اطلاعات یا داده‌های شخصی در دسترس عموم است، باز هم نباید خارج از زمینه اصلی آن افشا شود. این قانون دیگری است که توسط ChatGPT نادیده گرفته شده است.

ما حتی به ندرت به نقض حفاظت از داده های ذاتی در نحوه یادگیری چت ربات های هوش مصنوعی پرداخته ایم.

در حال حاضر هیچ روشی برای افراد وجود ندارد که بررسی کنند چه اطلاعات شخصی روی آنها ذخیره می شود یا درخواست حذف آنها را مانند سایر شرکت ها انجام دهید.

همچنین ما رضایت نداده‌ایم که این داده‌ها در وهله اول ذخیره شوند – صرفاً به این دلیل که در جایی در اینترنت وجود دارد، نباید به ChatGPT حق استفاده از آن را بدهد.

چگونه می توانیم از حریم خصوصی خود در این دوره جدید هوش مصنوعی محافظت کنیم؟

دسترسی به اینترنت خصوصی خطرات حریم خصوصی ذاتی ChatGPT و دیگر پلتفرم‌های هوش مصنوعی را از نزدیک زیر نظر دارد.

با توجه به اینکه بسیاری از رقبا به شدت به دنبال پیشروی OpenAI هستند، از جمله مایکروسافت بینگ، گوگل بارد و غول فناوری چینی Baidu’s Ernie، و در بخشی که تقریباً به طور کامل کنترل نشده است، پیامدهای حریم خصوصی و امنیتی تنها در حال افزایش است.

در حالی که از پتانسیل هوش مصنوعی استقبال می کنیم، باید مراقب تهدید حریم خصوصی آن باشیم. قوانین و مقرراتی که از حریم خصوصی ما محافظت می کنند باید سازگار شوند.

به عنوان یک فرد، ما باید اقداماتی را برای محافظت از داده های خود و حفظ امنیت اطلاعات شخصی خود انجام دهیم.

این شامل فکر کردن به اینکه دقیقاً چه چیزهایی را به اشتراک می‌گذاریم به صورت آنلاین و دانستن اینکه یک پلتفرم یادگیری ماشینی چگونه به راحتی می‌تواند این اطلاعات را پیدا کند، استخراج کند و با هر کسی به اشتراک بگذارد را شامل می‌شود.

در نهایت، ما باید مراقب باشیم که چقدر به این فناوری جدید اعتماد می کنیم، به جای اینکه کورکورانه پاسخ هایی را که به ما ارائه می شود، زیر سوال ببریم.

خوزه بلایا مدیر مهندسی در دسترسی به اینترنت خصوصی است. او یک متخصص مهندسی فناوری با پیشینه قوی در امنیت سایبری و پلتفرم های تلفن همراه و یک مدافع جهانی برای حفظ حریم خصوصی و آزادی دیجیتال است.

_در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
_

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …