نظارت گذشته نگر تشخیص چهره نقض حقوق بشر را در دید آشکار پنهان می کند

به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،

توسط الا جاکوبوسکا، EDRi، هجیرا مریم و مت محمودی، عفو بین‌الملل

پس از سرقت از یک شرکت تدارکات فرانسوی در سال 2019، در تلاش برای شناسایی عاملان، از فناوری تشخیص چهره (FRT) در فیلم دوربین های امنیتی این حادثه استفاده شد.

FRT با تلاش برای تطبیق تصاویر، به عنوان مثال، دوربین‌های تلویزیون مدار بسته (CCTV) با پایگاه‌داده‌های اغلب میلیون‌ها تصویر چهره، که در بسیاری از موارد بدون اطلاع و رضایت جمع‌آوری شده‌اند، کار می‌کند.

در این مورد، سیستم FRT دویست نفر را به عنوان مظنونین احتمالی درج کرد.

از این فهرست، پلیس «آقای ح» را جدا کرد و علیرغم فقدان شواهد فیزیکی برای ارتباط او با جرم، او را به سرقت متهم کرد.

در محاکمه او، دادگاه درخواست وکیل آقای H را برای به اشتراک گذاشتن اطلاعات در مورد نحوه تهیه لیست توسط سیستم، که در مرکز تصمیم برای متهم کردن آقای H قرار داشت، رد کرد.

قاضی تصمیم گرفت به این فناوری تبعیض آمیز بدنام تکیه کند و آقای H را به 18 ماه زندان محکوم کرد.

با تشخیص چهره متهم شده است

FRT “زنده” اغلب هدف انتقادات (به خوبی به دست آمده) است، زیرا این فناوری برای ردیابی و نظارت بر افراد در زمان واقعی استفاده می شود.

با این حال، استفاده از فناوری تشخیص چهره به صورت گذشته نگر، پس از وقوع یک حادثه، با وجود استفاده در مواردی مانند آقای H’s کمتر مورد بررسی قرار می گیرد.

FRT گذشته‌نگر با در دسترس بودن گسترده فیلم‌های دوربین امنیتی و زیرساخت‌های موجود برای این تکنیک آسان‌تر و فراگیرتر می‌شود.

اکنون، به عنوان بخشی از مذاکرات برای قانون جدید برای تنظیم هوش مصنوعی (AI)، قانون هوش مصنوعی، دولت‌های اتحادیه اروپا پیشنهاد می‌کنند که اجازه استفاده معمول از تشخیص چهره گذشته‌نگر در برابر عموم مردم – توسط پلیس، دولت‌های محلی و حتی شرکت‌های خصوصی را بدهند. .

قانون پیشنهادی هوش مصنوعی اتحادیه اروپا بر این فرض استوار است که FRT گذشته نگر کمتر از تکرار “زنده” آن مضر است.

مجری اتحادیه اروپا استدلال کرده است که خطرات و آسیب ها را می توان با زمان اضافی که پردازش گذشته نگر فراهم می کند کاهش داد.

این استدلال اشتباه است. نه تنها زمان اضافی برای رسیدگی به مسائل کلیدی – از بین بردن گمنامی و سرکوب حقوق و آزادی ها – ناکام است، بلکه مشکلات بیشتری را نیز ایجاد می کند.

«پست» RBI: خطرناک ترین اقدام نظارتی که هرگز در مورد آن نشنیده اید؟

Remote Biometric Identification یا RBI یک اصطلاح کلی برای سیستم‌هایی مانند FRT است که افراد را با استفاده از صورت – یا سایر اعضای بدن – از راه دور اسکن و شناسایی می‌کند.

قانون هوش مصنوعی پیشنهادی اتحادیه اروپا وقتی به صورت گذشته‌نگر استفاده می‌شود، از آن به عنوان «Post RBI» یاد می‌کند. Post RBI به این معنی است که می توان از نرم افزار برای شناسایی افراد در یک فید از فضاهای عمومی ساعت ها، هفته ها یا حتی ماه ها پس از ضبط آن استفاده کرد.

به عنوان مثال، اجرای FRT بر روی معترضانی که در دوربین های مدار بسته قرار گرفته شده اند. یا، مانند مورد آقای H، فیلم‌های دوربین‌های مداربسته را علیه پایگاه‌داده دولتی از 8 میلیون تصویر چهره اجرا کنند.

استفاده از این سیستم ها باعث ایجاد یک اثر سرد کننده در جامعه می شود. در مورد اینکه چقدر احساس راحتی می کنیم که در یک اعتراض شرکت کنیم، به دنبال مراقبت های بهداشتی باشیم – مانند سقط جنین در مکان هایی که جرم محسوب می شود – یا صحبت با یک روزنامه نگار.

فقط دانستن اینکه FRT گذشته نگر ممکن است در حال استفاده باشد، می تواند ما را از اینکه چگونه اطلاعات مربوط به زندگی شخصی ما می تواند علیه ما در آینده استفاده شود، ترساند.

FRT می تواند نژادپرستی را نیز تغذیه کند

تحقیقات نشان می دهد که استفاده از FRT به طور نامتناسبی بر جوامع نژادی تأثیر می گذارد.

عفو بین‌الملل نشان داده است که افرادی که در مناطقی زندگی می‌کنند که در معرض خطر پلیس‌های توقف و جست‌وجو نژادپرستانه قرار دارند – که بیشتر افراد رنگین‌پوست را تحت تاثیر قرار می‌دهند – احتمالاً بیشتر در معرض جمع‌آوری داده‌ها و فناوری‌های تهاجمی تشخیص چهره قرار می‌گیرند.

به عنوان مثال، دورک اینگرام، یک سازمان‌دهنده تظاهرات «جان سیاه‌پوستان مهم است» از نیویورک، توسط نیروهای پلیس در آپارتمانش به مدت چهار ساعت بدون حکم یا اتهام قانونی مورد آزار و اذیت قرار گرفت، فقط به این دلیل که توسط پست RBI پس از مشارکت در یک برنامه «زندگی سیاه‌پوستان» شناسایی شده بود. موضوع اعتراض

اینگرام پس از اینکه مشخص شد پلیس از این فناوری آزمایشی بر روی او استفاده کرده است، در یک نبرد قانونی طولانی برای رفع اتهامات نادرست علیه او به پایان رسید.

لیست ادامه دارد. رابرت ویلیامز، ساکن دیترویت، به دروغ به دلیل سرقت توسط شخص دیگری دستگیر شد.

رندال رید به زندانی در لوئیزیانا فرستاده شد، ایالتی که هرگز از آن بازدید نکرده بود زیرا پلیس به اشتباه او را مظنون به سرقت با FRT معرفی کرد.

مخصوصاً برای جوامع نژادپرستانه، عادی سازی تشخیص چهره، عادی سازی صف بندی مجازی دائمی آنهاست.

اگر حضور آنلاین دارید، احتمالاً قبلاً در پایگاه داده های FRT هستید

این فناوری دیستوپیایی همچنین توسط باشگاه‌های فوتبال در هلند برای بررسی هواداران محروم شده و به اشتباه جریمه‌ای برای هواداری که در مسابقه مورد نظر شرکت نکرده است، استفاده شده است.

بر اساس گزارش ها، پلیس در اتریش علیه معترضان و در فرانسه به بهانه ساختن شهرها “ایمن تر” و کارآمدتر، اما در واقع افزایش نظارت جمعی از آن استفاده کرده است.

این فناوری ها اغلب با هزینه کم و بدون هزینه ارائه می شوند.

یکی از شرکت هایی که چنین خدماتی را ارائه می دهد، Clearview AI است. این شرکت جستجوهای تشخیص چهره بسیار تهاجمی را به هزاران افسر مجری قانون و آژانس در سراسر اروپا، ایالات متحده و سایر مناطق ارائه کرده است.

در اروپا، مقامات ملی حفاظت از داده‌ها موضع شدیدی در برابر این اقدامات اتخاذ کرده‌اند، به طوری که تنظیم‌کننده‌های ایتالیایی و یونانی Clearview AI را میلیون‌ها یورو به دلیل خراشیدن صورت شهروندان اتحادیه اروپا بدون مبنای قانونی جریمه کردند.

رگولاتورهای سوئد پلیس ملی را به دلیل پردازش غیرقانونی داده های شخصی هنگام استفاده از هوش مصنوعی Clearview برای شناسایی افراد جریمه کردند.

قانون هوش مصنوعی می تواند فرصتی برای پایان دادن به سوء استفاده از نظارت جمعی باشد

علی‌رغم این اقدامات امیدوارکننده برای محافظت از حقوق بشر ما در برابر تشخیص چهره توسط مقامات حفاظت از داده‌ها، دولت‌های اتحادیه اروپا اکنون به دنبال اجرای این اقدامات خطرناک هستند.

آزمایش‌های شناسایی بیومتریک در کشورهای سراسر جهان بارها و بارها به ما نشان داده است که این فناوری‌ها و جمع‌آوری داده‌های انبوه ناشی از آن، حقوق حاشیه‌نشین‌ترین افراد، از جمله جوامع نژادی، پناهندگان، مهاجران و پناهجویان را از بین می‌برند.

کشورهای اروپایی شروع به قانونی کردن طیف وسیعی از روش‌های نظارت جمعی بیومتریک کرده‌اند و تهدید به عادی‌سازی استفاده از این سیستم‌های نفوذی در سراسر اتحادیه اروپا کرده‌اند.

به همین دلیل است که ما بیش از هر زمان دیگری به مقررات قوی اتحادیه اروپا نیاز داریم که همه اشکال نظارت انبوه بیومتریک زنده و گذشته‌نگر را در جوامع ما و در مرزهای اتحادیه اروپا، از جمله توقف Post RBI در مسیر خود، ثبت کند.

با قانون هوش مصنوعی، اتحادیه اروپا فرصتی منحصر به فرد برای پایان دادن به سوء استفاده گسترده که توسط فناوری های نظارت انبوه تسهیل می شود، دارد.

باید استاندارد بالایی برای پادمان های حقوق بشر برای استفاده از فناوری های نوظهور تعیین کند، به ویژه زمانی که این فناوری ها نابرابری های موجود در جامعه را تشدید کنند.

Ella Jakubowska مشاور ارشد سیاست در حقوق دیجیتال اروپایی (EDRI) است، یک مجموعه شبکه ای از سازمان های غیرانتفاعی، کارشناسان، مدافعان و دانشگاهیان که برای دفاع و پیشبرد حقوق دیجیتال در سراسر قاره تلاش می کنند.

هجیرا مریم یک مدیر رسانه است و مت محمودی محقق هوش مصنوعی و حقوق بشر در Amnesty Tech، یک مجموعه جهانی از مدافعان، مبارزان، هکرها، محققان و فناوران مدافع حقوق بشر در عصر دیجیتال است.

_در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
_

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …