به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،
توسط الا جاکوبوسکا، EDRi، هجیرا مریم و مت محمودی، عفو بینالملل
پس از سرقت از یک شرکت تدارکات فرانسوی در سال 2019، در تلاش برای شناسایی عاملان، از فناوری تشخیص چهره (FRT) در فیلم دوربین های امنیتی این حادثه استفاده شد.
FRT با تلاش برای تطبیق تصاویر، به عنوان مثال، دوربینهای تلویزیون مدار بسته (CCTV) با پایگاهدادههای اغلب میلیونها تصویر چهره، که در بسیاری از موارد بدون اطلاع و رضایت جمعآوری شدهاند، کار میکند.
در این مورد، سیستم FRT دویست نفر را به عنوان مظنونین احتمالی درج کرد.
از این فهرست، پلیس «آقای ح» را جدا کرد و علیرغم فقدان شواهد فیزیکی برای ارتباط او با جرم، او را به سرقت متهم کرد.
در محاکمه او، دادگاه درخواست وکیل آقای H را برای به اشتراک گذاشتن اطلاعات در مورد نحوه تهیه لیست توسط سیستم، که در مرکز تصمیم برای متهم کردن آقای H قرار داشت، رد کرد.
قاضی تصمیم گرفت به این فناوری تبعیض آمیز بدنام تکیه کند و آقای H را به 18 ماه زندان محکوم کرد.
با تشخیص چهره متهم شده است
FRT “زنده” اغلب هدف انتقادات (به خوبی به دست آمده) است، زیرا این فناوری برای ردیابی و نظارت بر افراد در زمان واقعی استفاده می شود.
با این حال، استفاده از فناوری تشخیص چهره به صورت گذشته نگر، پس از وقوع یک حادثه، با وجود استفاده در مواردی مانند آقای H’s کمتر مورد بررسی قرار می گیرد.
FRT گذشتهنگر با در دسترس بودن گسترده فیلمهای دوربین امنیتی و زیرساختهای موجود برای این تکنیک آسانتر و فراگیرتر میشود.
اکنون، به عنوان بخشی از مذاکرات برای قانون جدید برای تنظیم هوش مصنوعی (AI)، قانون هوش مصنوعی، دولتهای اتحادیه اروپا پیشنهاد میکنند که اجازه استفاده معمول از تشخیص چهره گذشتهنگر در برابر عموم مردم – توسط پلیس، دولتهای محلی و حتی شرکتهای خصوصی را بدهند. .
قانون پیشنهادی هوش مصنوعی اتحادیه اروپا بر این فرض استوار است که FRT گذشته نگر کمتر از تکرار “زنده” آن مضر است.
مجری اتحادیه اروپا استدلال کرده است که خطرات و آسیب ها را می توان با زمان اضافی که پردازش گذشته نگر فراهم می کند کاهش داد.
این استدلال اشتباه است. نه تنها زمان اضافی برای رسیدگی به مسائل کلیدی – از بین بردن گمنامی و سرکوب حقوق و آزادی ها – ناکام است، بلکه مشکلات بیشتری را نیز ایجاد می کند.
«پست» RBI: خطرناک ترین اقدام نظارتی که هرگز در مورد آن نشنیده اید؟
Remote Biometric Identification یا RBI یک اصطلاح کلی برای سیستمهایی مانند FRT است که افراد را با استفاده از صورت – یا سایر اعضای بدن – از راه دور اسکن و شناسایی میکند.
قانون هوش مصنوعی پیشنهادی اتحادیه اروپا وقتی به صورت گذشتهنگر استفاده میشود، از آن به عنوان «Post RBI» یاد میکند. Post RBI به این معنی است که می توان از نرم افزار برای شناسایی افراد در یک فید از فضاهای عمومی ساعت ها، هفته ها یا حتی ماه ها پس از ضبط آن استفاده کرد.
به عنوان مثال، اجرای FRT بر روی معترضانی که در دوربین های مدار بسته قرار گرفته شده اند. یا، مانند مورد آقای H، فیلمهای دوربینهای مداربسته را علیه پایگاهداده دولتی از 8 میلیون تصویر چهره اجرا کنند.
استفاده از این سیستم ها باعث ایجاد یک اثر سرد کننده در جامعه می شود. در مورد اینکه چقدر احساس راحتی می کنیم که در یک اعتراض شرکت کنیم، به دنبال مراقبت های بهداشتی باشیم – مانند سقط جنین در مکان هایی که جرم محسوب می شود – یا صحبت با یک روزنامه نگار.
فقط دانستن اینکه FRT گذشته نگر ممکن است در حال استفاده باشد، می تواند ما را از اینکه چگونه اطلاعات مربوط به زندگی شخصی ما می تواند علیه ما در آینده استفاده شود، ترساند.
FRT می تواند نژادپرستی را نیز تغذیه کند
تحقیقات نشان می دهد که استفاده از FRT به طور نامتناسبی بر جوامع نژادی تأثیر می گذارد.
عفو بینالملل نشان داده است که افرادی که در مناطقی زندگی میکنند که در معرض خطر پلیسهای توقف و جستوجو نژادپرستانه قرار دارند – که بیشتر افراد رنگینپوست را تحت تاثیر قرار میدهند – احتمالاً بیشتر در معرض جمعآوری دادهها و فناوریهای تهاجمی تشخیص چهره قرار میگیرند.
به عنوان مثال، دورک اینگرام، یک سازماندهنده تظاهرات «جان سیاهپوستان مهم است» از نیویورک، توسط نیروهای پلیس در آپارتمانش به مدت چهار ساعت بدون حکم یا اتهام قانونی مورد آزار و اذیت قرار گرفت، فقط به این دلیل که توسط پست RBI پس از مشارکت در یک برنامه «زندگی سیاهپوستان» شناسایی شده بود. موضوع اعتراض
اینگرام پس از اینکه مشخص شد پلیس از این فناوری آزمایشی بر روی او استفاده کرده است، در یک نبرد قانونی طولانی برای رفع اتهامات نادرست علیه او به پایان رسید.
لیست ادامه دارد. رابرت ویلیامز، ساکن دیترویت، به دروغ به دلیل سرقت توسط شخص دیگری دستگیر شد.
رندال رید به زندانی در لوئیزیانا فرستاده شد، ایالتی که هرگز از آن بازدید نکرده بود زیرا پلیس به اشتباه او را مظنون به سرقت با FRT معرفی کرد.
مخصوصاً برای جوامع نژادپرستانه، عادی سازی تشخیص چهره، عادی سازی صف بندی مجازی دائمی آنهاست.
اگر حضور آنلاین دارید، احتمالاً قبلاً در پایگاه داده های FRT هستید
این فناوری دیستوپیایی همچنین توسط باشگاههای فوتبال در هلند برای بررسی هواداران محروم شده و به اشتباه جریمهای برای هواداری که در مسابقه مورد نظر شرکت نکرده است، استفاده شده است.
بر اساس گزارش ها، پلیس در اتریش علیه معترضان و در فرانسه به بهانه ساختن شهرها “ایمن تر” و کارآمدتر، اما در واقع افزایش نظارت جمعی از آن استفاده کرده است.
این فناوری ها اغلب با هزینه کم و بدون هزینه ارائه می شوند.
یکی از شرکت هایی که چنین خدماتی را ارائه می دهد، Clearview AI است. این شرکت جستجوهای تشخیص چهره بسیار تهاجمی را به هزاران افسر مجری قانون و آژانس در سراسر اروپا، ایالات متحده و سایر مناطق ارائه کرده است.
در اروپا، مقامات ملی حفاظت از دادهها موضع شدیدی در برابر این اقدامات اتخاذ کردهاند، به طوری که تنظیمکنندههای ایتالیایی و یونانی Clearview AI را میلیونها یورو به دلیل خراشیدن صورت شهروندان اتحادیه اروپا بدون مبنای قانونی جریمه کردند.
رگولاتورهای سوئد پلیس ملی را به دلیل پردازش غیرقانونی داده های شخصی هنگام استفاده از هوش مصنوعی Clearview برای شناسایی افراد جریمه کردند.
قانون هوش مصنوعی می تواند فرصتی برای پایان دادن به سوء استفاده از نظارت جمعی باشد
علیرغم این اقدامات امیدوارکننده برای محافظت از حقوق بشر ما در برابر تشخیص چهره توسط مقامات حفاظت از دادهها، دولتهای اتحادیه اروپا اکنون به دنبال اجرای این اقدامات خطرناک هستند.
آزمایشهای شناسایی بیومتریک در کشورهای سراسر جهان بارها و بارها به ما نشان داده است که این فناوریها و جمعآوری دادههای انبوه ناشی از آن، حقوق حاشیهنشینترین افراد، از جمله جوامع نژادی، پناهندگان، مهاجران و پناهجویان را از بین میبرند.
کشورهای اروپایی شروع به قانونی کردن طیف وسیعی از روشهای نظارت جمعی بیومتریک کردهاند و تهدید به عادیسازی استفاده از این سیستمهای نفوذی در سراسر اتحادیه اروپا کردهاند.
به همین دلیل است که ما بیش از هر زمان دیگری به مقررات قوی اتحادیه اروپا نیاز داریم که همه اشکال نظارت انبوه بیومتریک زنده و گذشتهنگر را در جوامع ما و در مرزهای اتحادیه اروپا، از جمله توقف Post RBI در مسیر خود، ثبت کند.
با قانون هوش مصنوعی، اتحادیه اروپا فرصتی منحصر به فرد برای پایان دادن به سوء استفاده گسترده که توسط فناوری های نظارت انبوه تسهیل می شود، دارد.
باید استاندارد بالایی برای پادمان های حقوق بشر برای استفاده از فناوری های نوظهور تعیین کند، به ویژه زمانی که این فناوری ها نابرابری های موجود در جامعه را تشدید کنند.
Ella Jakubowska مشاور ارشد سیاست در حقوق دیجیتال اروپایی (EDRI) است، یک مجموعه شبکه ای از سازمان های غیرانتفاعی، کارشناسان، مدافعان و دانشگاهیان که برای دفاع و پیشبرد حقوق دیجیتال در سراسر قاره تلاش می کنند.
هجیرا مریم یک مدیر رسانه است و مت محمودی محقق هوش مصنوعی و حقوق بشر در Amnesty Tech، یک مجموعه جهانی از مدافعان، مبارزان، هکرها، محققان و فناوران مدافع حقوق بشر در عصر دیجیتال است.
_در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
_
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.