به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،
توسط سارا چاندر، مشاور ارشد سیاستگذاری، EDRi، و آلینا اسمیت، معاون مدیر PICUM
قانون هوش مصنوعی اتحادیه اروپا که معمولاً به عنوان قانون هوش مصنوعی شناخته می شود اولین در نوع خود.
این نه تنها به عنوان اولین قانون الزام آور در مورد هوش مصنوعی در جهان نقطه عطفی خواهد بود، بلکه یکی از اولین قوانین متمرکز بر فناوری است که به طور معناداری به چگونگی تداوم نژادپرستی ساختاری توسط فناوری ها می پردازد.
از تاثیر تبعیض نژادی از سیستم های پلیسی پیش بینی به استفاده از سیستم های هوش مصنوعی برای برچسب زدن نادرست (عمدتاً نژادپرستانه) به افراد کلاهبرداران هنگام ادعای منافع، این قانون عمیقاً با آگاهی روزافزون در مورد اینکه چگونه فناوری می تواند آسیب را تداوم بخشد است.
قانونگذاران اقداماتی را انجام دادهاند که استفادههای خاصی از هوش مصنوعی را در صورت «ناسازگاری با حقوق اساسی» ممنوع میکند. این مورد برای برخی از کاربردهای تشخیص چهره است شناسایی افراد در اماکن عمومی و سیستم های هوش مصنوعی برای پیش بینی استفاده می شود جنایت در کجا و توسط چه کسی ممکن است رخ دهد.
با این حال، مذاکرهکنندگان در پارلمان اروپا از شناسایی آسیبهای خاص ناشی از استفاده از سیستمهای هوش مصنوعی در زمینه مهاجرت کوتاهی میکنند.
هوش مصنوعی به عنوان یک عامل مهاجرت
از دروغ یاب های هوش مصنوعی و “پروفایل ریسک” هوش مصنوعی که در بسیاری از روش های مهاجرت استفاده می شود تا روش های سریع گسترش نظارت فناوری در مرزهای اروپاسیستم های هوش مصنوعی به طور فزاینده ای یکی از ویژگی های رویکرد اتحادیه اروپا به مهاجرت هستند.
برای ساختن از هوش مصنوعی استفاده می شود پیش بینی ها و ارزیابی ها در مورد افرادی که در ادعاهای مهاجرت خود بر اساس معیارهای مبهم هستند که شناخت آنها سخت و چالش برانگیزتر است.
در اروپا، در حال حاضر برنامههایی برای استفاده از الگوریتمهایی برای ارزیابی «پروفایل ریسک» همه بازدیدکنندگان وجود دارد – در شرایطی که شواهدی وجود دارد که نشان میدهد تصمیمات ویزا منعکس کننده تاریخچه تبعیض است ریشه در استعمار دارد.
سیستمهای هوش مصنوعی نیز بخشی از یک دستگاه نظارت عمومی در حال گسترش هستند. این شامل هوش مصنوعی برای نظارت در مرز و سیستم های تحلیلی پیش بینی برای پیش بینی روند مهاجرت است.
به گفته شبکه نظارت بر خشونت مرزی، ما در حال حاضر شاهد مواردی از استفاده از فناوری های هوش مصنوعی در پس بک ها هستیم. به ناپدید شدن اجباری تبدیل می شود.
در این زمینه، این خطر واقعی وجود دارد که پیشبینیهای به ظاهر بیضرر در مورد الگوهای مهاجرت برای تسهیل عقبنشینی، عقبنشینی و سایر راهها برای جلوگیری از اعمال حق پناهندگی افراد مورد استفاده قرار گیرد.
قومیت و رنگ پوست در حال تبدیل شدن به پروکسی برای وضعیت مهاجرت است
برای افرادی که قبلاً در اروپا هستند، پلیس محلی از فناوری به شیوههایی استفاده میکند که هدف آن افزایش تعداد افرادی است که از طریق توقفهای پلیس بهعنوان غیرقانونی شناسایی میشوند و باعث تداوم پروفایل نژادی میشود.
در فرانسه، آلمان، هلند و سوئد پلیس بوده است به قدرت اثر انگشت افراد داده شده است آنها در خیابان توقف می کنند تا وضعیت مهاجرت خود را بررسی کنند.
سازمانهای حقوق بشر محلی، برنامه یونانی را که پلیس را به دستگاههای هوشمند برای اسکن چهره افراد با هدف شناسایی افراد غیرقانونی مجهز میکند، به چالش کشیدهاند.
با توجه به اینکه نژاد، قومیت و رنگ پوست اغلب توسط مقامات استفاده می شود به عنوان نماینده ای برای وضعیت مهاجرت، این روندها منجر به توقف های بیشتر در جوامع ما (و آزار و اذیت و فرصت های مرتبط برای بدرفتاری) افراد نژادپرستان – شهروندان و غیرشهروندان خواهد شد.
استفاده فزاینده از هوش مصنوعی در زمینه مهاجرت، افراد رنگین پوست را در معرض نظارت بیشتر، تصمیم گیری تبعیض آمیزتر در ادعاهای مهاجرت، و نمایه سازی مضر تر (توسط نرم افزار و توسط انسان) قرار می دهد، و روندهای جرم انگاری و غیرانسانی سازی در سیاست مهاجرت اتحادیه اروپا را تشدید می کند.
حقوق دیجیتال برای همه – به جز مهاجران
این روندها در استقرار هوش مصنوعی بخشی از یک گسترده تر – و در حال رشد – هستند. اکوسیستم نظارتی در داخل و در مرزهای اروپا توسعه یافته است.
برای مثال، در اصلاحات پیشنهادی یوروداک، اتحادیه اروپا به دنبال این است پایگاه داده های نظارتی را به طور گسترده گسترش دهید با دادههای مربوط به افرادی که درخواست پناهندگی میکنند یا در مرز دستگیر میشوند، شامل تصاویر چهره و دادههای کودکان زیر ۶ سال.
این کاملاً با استانداردهای تعیین شده در مقررات عمومی حفاظت از داده های اتحادیه اروپا در تضاد است.
این نماد یک روند است: اتحادیه اروپا قانونی ایجاد می کند که از حقوق اساسی محافظت می کند – و سپس آن قانون را در تلاش برای مهر و موم کردن مرزهای خود نادیده می گیرد.
این استثنایی به قیمت جان انسان ها تمام می شود و راه را برای فرسایش استانداردها و ارزش های اتحادیه اروپا باز می کند. این یک استاندارد دوگانه است که باید آن را آنچه هست نامید: نژادپرستی.
ممنوعیت هوش مصنوعی مضر در مهاجرت
همانطور که توسط پروفسور E Tendayi Achiume، گزارشگر سابق سازمان ملل در مورد اشکال معاصر نژادپرستی، و ائتلاف قوی جامعه مدنی تاکید شده است. #ProtectNotSurveil، ما به تعهد نیاز داریم از بین بردن فن آوری هایی که باعث تداوم آسیب می شوند.
این به معنای برداشتن گامهای جسورانه است، از جمله ممنوع کردن برخی از مضرترین کاربردهای هوش مصنوعی: مواردی که در زمینههای مهاجرت استفاده میشوند.
در عمل، این بدان معنی است که قانون هوش مصنوعی اتحادیه اروپا باید ممنوع کردن و جلوگیری از ابزارهای تبعیض آمیز پروفایل هوش مصنوعی در روشهای مهاجرت و پیشبینی مبتنی بر هوش مصنوعی که برای عقبنشینیها در نقض قوانین بینالمللی پناهندگان استفاده میشود. باید اطمینان حاصل کند که استفاده از ابزارهای شناسایی بیومتریک – مانند دستگاه های دستی پلیس – (که قانون در حال حاضر در مورد آنها سکوت کرده است) به عنوان “خطر بالا” تنظیم می شود.
قانون هوش مصنوعی سیاست های مهاجرتی عمیقا ناقص اروپا را اصلاح نخواهد کرد. اما میتواند تضمین کند که فناوریهای هوش مصنوعی بهگونهای تنظیم میشوند که از آسیبهای بیشتر جلوگیری میکند و حفاظت برابر را نسبت به استانداردهای دوگانه انتخاب میکند.
سارا چاندر مشاور ارشد سیاستگذاری در حقوق دیجیتال اروپا (EDRI) است. آلینا اسمیت به عنوان معاون مدیر پلتفرم همکاری بین المللی در مورد مهاجران غیرقانونی (PICUM) خدمت می کند.
در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.