خطرات ناشی از هوش مصنوعی واقعی است: اتحادیه اروپا برای شکست دادن الگوریتم هایی که زندگی ها را نابود می کند حرکت می کند | هوش مصنوعی (AI)

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

مندر نوامبر 2019 با یک توییت شروع شد. دیوید هاین مایر هانسون، کارآفرین برجسته فناوری، کارت اعتباری تازه راه اندازی شده اپل را مورد انتقاد قرار داد و آن را نام برد. “جنسگرا” به خاطر ارائه سقف اعتباری به همسرش 20 برابر کمتر از حد خود.

این اتهامات مانند آتش گسترش یافت و هانسون تأکید کرد که هوش مصنوعی – که اکنون به طور گسترده برای تصمیم گیری در مورد وام استفاده می شود – مقصر بود. مهم نیست که قصد تک تک نمایندگان اپل چیست، مهم این است که الگوریتمی که آنها به آن ایمان کامل دارند چه می کند. و کاری که انجام می دهد تبعیض است. این لعنت شده است.»

در حالی که اپل و متعهدین آن گلدمن ساکس در نهایت توسط قانونگذاران ایالات متحده از نقض قوانین وام دهی منصفانه در سال گذشته تبرئه شدند، بحث گسترده تری در مورد استفاده از هوش مصنوعی در صنایع دولتی و خصوصی را دوباره برانگیخت.

سیاستمداران در اتحادیه اروپا اکنون در حال برنامه ریزی برای معرفی اولین الگوی جهانی جامع برای تنظیم هوش مصنوعی هستند، زیرا موسسات به طور فزاینده ای وظایف معمول را در تلاش برای افزایش کارایی و در نهایت کاهش هزینه ها خودکار می کنند.

این قانون، معروف به قانون هوش مصنوعی، عواقبی فراتر از مرزهای اتحادیه اروپا خواهد داشت و مانند مقررات عمومی حفاظت از داده های اتحادیه اروپا، برای هر موسسه، از جمله بانک های بریتانیا، که به مشتریان اتحادیه اروپا خدمات ارائه می دهد، اعمال خواهد شد. الکساندرو سیرچیومارو، رهبر سیاست عمومی اروپا در مؤسسه آدا لاولیس، گفت: «تأثیر این قانون، پس از تصویب، قابل اغراق نیست.

بسته به فهرست نهایی اتحادیه اروپا از کاربردهای «ریسک بالا»، انگیزه ای برای معرفی قوانین سختگیرانه در مورد نحوه استفاده از هوش مصنوعی برای فیلتر کردن برنامه های شغلی، دانشگاهی یا رفاهی، یا – در مورد وام دهندگان – ارزیابی اعتبار وام گیرندگان بالقوه وجود دارد.

مقامات اتحادیه اروپا امیدوارند که با نظارت بیشتر و محدودیت‌هایی بر روی نوع مدل‌های هوش مصنوعی قابل استفاده، قوانین نوعی تبعیض مبتنی بر ماشین را که می‌تواند بر تصمیم‌گیری‌های تغییردهنده زندگی تأثیر بگذارد، مانند اینکه آیا می‌توانید هزینه خانه یا وام دانشجویی را بپردازید، مهار کند. .

سارا کوسیانسکی، مشاور فناوری مالی مستقل گفت: “هوش مصنوعی می تواند برای تجزیه و تحلیل کل سلامت مالی شما از جمله هزینه، پس انداز، سایر بدهی ها استفاده شود تا به تصویری جامع تر دست یابیم.” اگر به درستی طراحی شوند، چنین سیستم هایی می توانند دسترسی وسیع تری به اعتبار مقرون به صرفه فراهم کنند.

اما یکی از بزرگترین خطرات سوگیری ناخواسته است که در آن الگوریتم‌ها در نهایت به گروه‌های خاصی از جمله زنان، مهاجران یا رنگین پوستان وام یا حساب‌ها را رد می‌کنند.

بخشی از مشکل این است که بیشتر مدل‌های هوش مصنوعی فقط می‌توانند از داده‌های تاریخی که به آنها داده شده است، بیاموزند، به این معنی که آنها می‌آموزند که قبلاً به چه نوع مشتری وام داده شده است و چه مشتریانی به عنوان غیرقابل اعتماد علامت‌گذاری شده‌اند. کوسیانسکی گفت: “این خطر وجود دارد که آنها از نظر ظاهری یک وام گیرنده “خوب” مغرضانه باشند.به طور قابل توجهی، جنسیت و قومیت اغلب بر اساس داده‌هایی که هوش مصنوعی بر اساس آن آموزش داده شده است، نقشی در فرآیندهای تصمیم‌گیری هوش مصنوعی ایفا می‌کند: عواملی که به هیچ وجه به توانایی فرد برای بازپرداخت وام مرتبط نیستند.

علاوه بر این، برخی از مدل‌ها به گونه‌ای طراحی شده‌اند که نسبت به ویژگی‌های به اصطلاح محافظت‌شده کور باشند، به این معنی که قرار نیست تأثیر جنسیت، نژاد، قومیت یا ناتوانی را در نظر بگیرند. اما آن مدل‌های هوش مصنوعی همچنان می‌توانند در نتیجه تجزیه و تحلیل سایر نقاط داده مانند کد پستی، که ممکن است با گروه‌های محروم تاریخی که قبلاً برای وام یا وام مسکن درخواست، تضمین یا بازپرداخت نکرده‌اند، مرتبط باشد، تبعیض قائل شوند.

مفهوم سیستم تشخیص چهره
یکی از بزرگترین خطرات سوگیری غیرعمدی است که در آن الگوریتم ها علیه گروه های خاصی از جمله زنان، مهاجران یا رنگین پوستان تبعیض قائل می شوند. عکس: metamorworks/Getty Images/iStockphoto

و در بیشتر موارد، زمانی که یک الگوریتم تصمیمی می‌گیرد، درک اینکه چگونه به آن نتیجه رسیده است، برای کسی مشکل است که منجر به چیزی می‌شود که معمولاً به عنوان سندرم «جعبه سیاه» شناخته می‌شود. این بدان معناست که برای مثال، بانک‌ها ممکن است در توضیح آنچه که متقاضی می‌توانست برای واجد شرایط بودن برای دریافت وام یا کارت اعتباری متفاوت انجام داده باشد، یا اینکه تغییر جنسیت متقاضی از مرد به زن ممکن است به نتیجه متفاوتی منجر شود، مشکل داشته باشند.

Circiumaru گفت قانون هوش مصنوعی، که می‌تواند در اواخر سال 2024 اجرایی شود، به نفع شرکت‌های فناوری است که موفق به توسعه مدل‌های «مطمئن هوش مصنوعی» می‌شوند که با قوانین جدید اتحادیه اروپا مطابقت دارند.

دارکو ماتوسکی، مدیر اجرایی و یکی از بنیانگذاران استارت‌آپ هوش مصنوعی causaLens که مقر آن در لندن است، معتقد است که شرکت او نیز در میان آنهاست.

این استارت آپ که در ژانویه 2021 راه اندازی شد، قبلاً مجوز فناوری خود را به شرکت هایی مانند Aviva مدیر دارایی و شرکت تجارت کمی Tibra داده است و می گوید تعدادی از بانک های خرده فروشی در حال امضای قرارداد با شرکت قبل از اجرای قوانین اتحادیه اروپا هستند. لازم الاجرا شود.

این کارآفرین گفت causaLens شکل پیشرفته‌تری از هوش مصنوعی ارائه می‌کند که با حسابداری و کنترل همبستگی‌های تبعیض‌آمیز در داده‌ها، از سوگیری احتمالی جلوگیری می‌کند. ماتوسکی گفت: «مدل‌های مبتنی بر همبستگی در حال یادگیری بی‌عدالتی‌ها از گذشته هستند و فقط آن را در آینده تکرار می‌کنند.

او معتقد است که تکثیر مدل‌های به اصطلاح گاه به گاه هوش مصنوعی مانند مدل او منجر به نتایج بهتری برای گروه‌های حاشیه‌ای می‌شود که ممکن است فرصت‌های آموزشی و مالی را از دست داده باشند.

او گفت: «درک میزان خسارتی که قبلاً ایجاد شده واقعاً سخت است، زیرا ما واقعاً نمی‌توانیم این مدل را بررسی کنیم. ما نمی دانیم چند نفر به دلیل یک الگوریتم haywire به دانشگاه نرفته اند. ما نمی دانیم چند نفر به دلیل تعصبات الگوریتم نتوانستند وام مسکن خود را دریافت کنند. ما فقط نمی دانیم.»

ماتوسکی گفت تنها راه محافظت در برابر تبعیض احتمالی استفاده از ویژگی های محافظت شده مانند ناتوانی، جنسیت یا نژاد به عنوان ورودی است اما تضمین می کند که صرف نظر از آن ورودی های خاص، تصمیم تغییر نمی کند.

او گفت که این موضوع این است که مطمئن شویم مدل‌های هوش مصنوعی ارزش‌های اجتماعی کنونی ما را منعکس می‌کنند و از تداوم هرگونه تصمیم‌گیری نژادپرستانه، توانا یا زن‌ستیزانه در گذشته اجتناب می‌کنند. «جامعه فکر می‌کند که ما باید با همه یکسان رفتار کنیم، فارغ از اینکه چه جنسیتی، کدپستی و چه نژادی دارند. بنابراین الگوریتم‌ها نه تنها باید تلاش کنند این کار را انجام دهند، بلکه باید آن را تضمین کنند.»

در ایمیل روزانه Business Today ثبت نام کنید یا Guardian Business را در توییتر در @BusinessDesk دنبال کنید

در حالی که قوانین جدید اتحادیه اروپا احتمالا گام بزرگی در مهار تعصبات مبتنی بر ماشین خواهد بود، برخی از کارشناسان، از جمله کارشناسان موسسه Ada Lovelace، بر این تاکید دارند که مصرف‌کنندگان حق شکایت داشته باشند و اگر فکر می‌کنند در این مورد اعمال شده‌اند، حق شکایت داشته باشند. در یک نقطه ضعف.

Circiumaru گفت: “خطرات ناشی از هوش مصنوعی، به ویژه زمانی که در شرایط خاص خاص اعمال شود، واقعی، قابل توجه و در حال حاضر وجود دارد.”

«مقررات AI باید تضمین کند که افراد با تأیید یا عدم تأیید استفاده از هوش مصنوعی به طور مناسب از آسیب محافظت می‌شوند و در مواردی که سیستم‌های هوش مصنوعی تأیید شده نقص یا منجر به آسیب می‌شوند، راه‌حل‌هایی در دسترس باشد. ما نمی‌توانیم وانمود کنیم که سیستم‌های AI تأیید شده همیشه عملکردی عالی دارند و برای مواردی که این کار را نمی‌کنند آماده نمی‌شوند.»

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …