با نزدیک شدن به رای گیری قانون هوش مصنوعی، اتحادیه اروپا باید خط قرمزی برای نظارت نژادپرستانه ترسیم کند

به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،

توسط سارا چاندر، مشاور ارشد سیاستگذاری، EDRi، و آلینا اسمیت، معاون مدیر PICUM

قانون هوش مصنوعی اتحادیه اروپا که معمولاً به عنوان قانون هوش مصنوعی شناخته می شود اولین در نوع خود.

این نه تنها به عنوان اولین قانون الزام آور در مورد هوش مصنوعی در جهان نقطه عطفی خواهد بود، بلکه یکی از اولین قوانین متمرکز بر فناوری است که به طور معناداری به چگونگی تداوم نژادپرستی ساختاری توسط فناوری ها می پردازد.

از تاثیر تبعیض نژادی از سیستم های پلیسی پیش بینی به استفاده از سیستم های هوش مصنوعی برای برچسب زدن نادرست (عمدتاً نژادپرستانه) به افراد کلاهبرداران هنگام ادعای منافع، این قانون عمیقاً با آگاهی روزافزون در مورد اینکه چگونه فناوری می تواند آسیب را تداوم بخشد است.

قانونگذاران اقداماتی را انجام داده‌اند که استفاده‌های خاصی از هوش مصنوعی را در صورت «ناسازگاری با حقوق اساسی» ممنوع می‌کند. این مورد برای برخی از کاربردهای تشخیص چهره است شناسایی افراد در اماکن عمومی و سیستم های هوش مصنوعی برای پیش بینی استفاده می شود جنایت در کجا و توسط چه کسی ممکن است رخ دهد.

با این حال، مذاکره‌کنندگان در پارلمان اروپا از شناسایی آسیب‌های خاص ناشی از استفاده از سیستم‌های هوش مصنوعی در زمینه مهاجرت کوتاهی می‌کنند.

هوش مصنوعی به عنوان یک عامل مهاجرت

از دروغ یاب های هوش مصنوعی و “پروفایل ریسک” هوش مصنوعی که در بسیاری از روش های مهاجرت استفاده می شود تا روش های سریع گسترش نظارت فناوری در مرزهای اروپاسیستم های هوش مصنوعی به طور فزاینده ای یکی از ویژگی های رویکرد اتحادیه اروپا به مهاجرت هستند.

برای ساختن از هوش مصنوعی استفاده می شود پیش بینی ها و ارزیابی ها در مورد افرادی که در ادعاهای مهاجرت خود بر اساس معیارهای مبهم هستند که شناخت آنها سخت و چالش برانگیزتر است.

در اروپا، در حال حاضر برنامه‌هایی برای استفاده از الگوریتم‌هایی برای ارزیابی «پروفایل ریسک» همه بازدیدکنندگان وجود دارد – در شرایطی که شواهدی وجود دارد که نشان می‌دهد تصمیمات ویزا منعکس کننده تاریخچه تبعیض است ریشه در استعمار دارد.

سیستم‌های هوش مصنوعی نیز بخشی از یک دستگاه نظارت عمومی در حال گسترش هستند. این شامل هوش مصنوعی برای نظارت در مرز و سیستم های تحلیلی پیش بینی برای پیش بینی روند مهاجرت است.

به گفته شبکه نظارت بر خشونت مرزی، ما در حال حاضر شاهد مواردی از استفاده از فناوری های هوش مصنوعی در پس بک ها هستیم. به ناپدید شدن اجباری تبدیل می شود.

در این زمینه، این خطر واقعی وجود دارد که پیش‌بینی‌های به ظاهر بی‌ضرر در مورد الگوهای مهاجرت برای تسهیل عقب‌نشینی، عقب‌نشینی و سایر راه‌ها برای جلوگیری از اعمال حق پناهندگی افراد مورد استفاده قرار گیرد.

قومیت و رنگ پوست در حال تبدیل شدن به پروکسی برای وضعیت مهاجرت است

برای افرادی که قبلاً در اروپا هستند، پلیس محلی از فناوری به شیوه‌هایی استفاده می‌کند که هدف آن افزایش تعداد افرادی است که از طریق توقف‌های پلیس به‌عنوان غیرقانونی شناسایی می‌شوند و باعث تداوم پروفایل نژادی می‌شود.

در فرانسه، آلمان، هلند و سوئد پلیس بوده است به قدرت اثر انگشت افراد داده شده است آنها در خیابان توقف می کنند تا وضعیت مهاجرت خود را بررسی کنند.

سازمان‌های حقوق بشر محلی، برنامه یونانی را که پلیس را به دستگاه‌های هوشمند برای اسکن چهره افراد با هدف شناسایی افراد غیرقانونی مجهز می‌کند، به چالش کشیده‌اند.

با توجه به اینکه نژاد، قومیت و رنگ پوست اغلب توسط مقامات استفاده می شود به عنوان نماینده ای برای وضعیت مهاجرت، این روندها منجر به توقف های بیشتر در جوامع ما (و آزار و اذیت و فرصت های مرتبط برای بدرفتاری) افراد نژادپرستان – شهروندان و غیرشهروندان خواهد شد.

استفاده فزاینده از هوش مصنوعی در زمینه مهاجرت، افراد رنگین پوست را در معرض نظارت بیشتر، تصمیم گیری تبعیض آمیزتر در ادعاهای مهاجرت، و نمایه سازی مضر تر (توسط نرم افزار و توسط انسان) قرار می دهد، و روندهای جرم انگاری و غیرانسانی سازی در سیاست مهاجرت اتحادیه اروپا را تشدید می کند.

حقوق دیجیتال برای همه – به جز مهاجران

این روندها در استقرار هوش مصنوعی بخشی از یک گسترده تر – و در حال رشد – هستند. اکوسیستم نظارتی در داخل و در مرزهای اروپا توسعه یافته است.

برای مثال، در اصلاحات پیشنهادی یوروداک، اتحادیه اروپا به دنبال این است پایگاه داده های نظارتی را به طور گسترده گسترش دهید با داده‌های مربوط به افرادی که درخواست پناهندگی می‌کنند یا در مرز دستگیر می‌شوند، شامل تصاویر چهره و داده‌های کودکان زیر ۶ سال.

این کاملاً با استانداردهای تعیین شده در مقررات عمومی حفاظت از داده های اتحادیه اروپا در تضاد است.

این نماد یک روند است: اتحادیه اروپا قانونی ایجاد می کند که از حقوق اساسی محافظت می کند – و سپس آن قانون را در تلاش برای مهر و موم کردن مرزهای خود نادیده می گیرد.

این استثنایی به قیمت جان انسان ها تمام می شود و راه را برای فرسایش استانداردها و ارزش های اتحادیه اروپا باز می کند. این یک استاندارد دوگانه است که باید آن را آنچه هست نامید: نژادپرستی.

ممنوعیت هوش مصنوعی مضر در مهاجرت

همانطور که توسط پروفسور E Tendayi Achiume، گزارشگر سابق سازمان ملل در مورد اشکال معاصر نژادپرستی، و ائتلاف قوی جامعه مدنی تاکید شده است. #ProtectNotSurveil، ما به تعهد نیاز داریم از بین بردن فن آوری هایی که باعث تداوم آسیب می شوند.

این به معنای برداشتن گام‌های جسورانه است، از جمله ممنوع کردن برخی از مضرترین کاربردهای هوش مصنوعی: مواردی که در زمینه‌های مهاجرت استفاده می‌شوند.

در عمل، این بدان معنی است که قانون هوش مصنوعی اتحادیه اروپا باید ممنوع کردن و جلوگیری از ابزارهای تبعیض آمیز پروفایل هوش مصنوعی در روش‌های مهاجرت و پیش‌بینی مبتنی بر هوش مصنوعی که برای عقب‌نشینی‌ها در نقض قوانین بین‌المللی پناهندگان استفاده می‌شود. باید اطمینان حاصل کند که استفاده از ابزارهای شناسایی بیومتریک – مانند دستگاه های دستی پلیس – (که قانون در حال حاضر در مورد آنها سکوت کرده است) به عنوان “خطر بالا” تنظیم می شود.

قانون هوش مصنوعی سیاست های مهاجرتی عمیقا ناقص اروپا را اصلاح نخواهد کرد. اما می‌تواند تضمین کند که فناوری‌های هوش مصنوعی به‌گونه‌ای تنظیم می‌شوند که از آسیب‌های بیشتر جلوگیری می‌کند و حفاظت برابر را نسبت به استانداردهای دوگانه انتخاب می‌کند.

سارا چاندر مشاور ارشد سیاستگذاری در حقوق دیجیتال اروپا (EDRI) است. آلینا اسمیت به عنوان معاون مدیر پلتفرم همکاری بین المللی در مورد مهاجران غیرقانونی (PICUM) خدمت می کند.

در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …