به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
مندر نوامبر 2019 با یک توییت شروع شد. دیوید هاین مایر هانسون، کارآفرین برجسته فناوری، کارت اعتباری تازه راه اندازی شده اپل را مورد انتقاد قرار داد و آن را نام برد. “جنسگرا” به خاطر ارائه سقف اعتباری به همسرش 20 برابر کمتر از حد خود.
این اتهامات مانند آتش گسترش یافت و هانسون تأکید کرد که هوش مصنوعی – که اکنون به طور گسترده برای تصمیم گیری در مورد وام استفاده می شود – مقصر بود. مهم نیست که قصد تک تک نمایندگان اپل چیست، مهم این است که الگوریتمی که آنها به آن ایمان کامل دارند چه می کند. و کاری که انجام می دهد تبعیض است. این لعنت شده است.»
در حالی که اپل و متعهدین آن گلدمن ساکس در نهایت توسط قانونگذاران ایالات متحده از نقض قوانین وام دهی منصفانه در سال گذشته تبرئه شدند، بحث گسترده تری در مورد استفاده از هوش مصنوعی در صنایع دولتی و خصوصی را دوباره برانگیخت.
سیاستمداران در اتحادیه اروپا اکنون در حال برنامه ریزی برای معرفی اولین الگوی جهانی جامع برای تنظیم هوش مصنوعی هستند، زیرا موسسات به طور فزاینده ای وظایف معمول را در تلاش برای افزایش کارایی و در نهایت کاهش هزینه ها خودکار می کنند.
این قانون، معروف به قانون هوش مصنوعی، عواقبی فراتر از مرزهای اتحادیه اروپا خواهد داشت و مانند مقررات عمومی حفاظت از داده های اتحادیه اروپا، برای هر موسسه، از جمله بانک های بریتانیا، که به مشتریان اتحادیه اروپا خدمات ارائه می دهد، اعمال خواهد شد. الکساندرو سیرچیومارو، رهبر سیاست عمومی اروپا در مؤسسه آدا لاولیس، گفت: «تأثیر این قانون، پس از تصویب، قابل اغراق نیست.
بسته به فهرست نهایی اتحادیه اروپا از کاربردهای «ریسک بالا»، انگیزه ای برای معرفی قوانین سختگیرانه در مورد نحوه استفاده از هوش مصنوعی برای فیلتر کردن برنامه های شغلی، دانشگاهی یا رفاهی، یا – در مورد وام دهندگان – ارزیابی اعتبار وام گیرندگان بالقوه وجود دارد.
مقامات اتحادیه اروپا امیدوارند که با نظارت بیشتر و محدودیتهایی بر روی نوع مدلهای هوش مصنوعی قابل استفاده، قوانین نوعی تبعیض مبتنی بر ماشین را که میتواند بر تصمیمگیریهای تغییردهنده زندگی تأثیر بگذارد، مانند اینکه آیا میتوانید هزینه خانه یا وام دانشجویی را بپردازید، مهار کند. .
سارا کوسیانسکی، مشاور فناوری مالی مستقل گفت: “هوش مصنوعی می تواند برای تجزیه و تحلیل کل سلامت مالی شما از جمله هزینه، پس انداز، سایر بدهی ها استفاده شود تا به تصویری جامع تر دست یابیم.” اگر به درستی طراحی شوند، چنین سیستم هایی می توانند دسترسی وسیع تری به اعتبار مقرون به صرفه فراهم کنند.
اما یکی از بزرگترین خطرات سوگیری ناخواسته است که در آن الگوریتمها در نهایت به گروههای خاصی از جمله زنان، مهاجران یا رنگین پوستان وام یا حسابها را رد میکنند.
بخشی از مشکل این است که بیشتر مدلهای هوش مصنوعی فقط میتوانند از دادههای تاریخی که به آنها داده شده است، بیاموزند، به این معنی که آنها میآموزند که قبلاً به چه نوع مشتری وام داده شده است و چه مشتریانی به عنوان غیرقابل اعتماد علامتگذاری شدهاند. کوسیانسکی گفت: “این خطر وجود دارد که آنها از نظر ظاهری یک وام گیرنده “خوب” مغرضانه باشند. “به طور قابل توجهی، جنسیت و قومیت اغلب بر اساس دادههایی که هوش مصنوعی بر اساس آن آموزش داده شده است، نقشی در فرآیندهای تصمیمگیری هوش مصنوعی ایفا میکند: عواملی که به هیچ وجه به توانایی فرد برای بازپرداخت وام مرتبط نیستند.
علاوه بر این، برخی از مدلها به گونهای طراحی شدهاند که نسبت به ویژگیهای به اصطلاح محافظتشده کور باشند، به این معنی که قرار نیست تأثیر جنسیت، نژاد، قومیت یا ناتوانی را در نظر بگیرند. اما آن مدلهای هوش مصنوعی همچنان میتوانند در نتیجه تجزیه و تحلیل سایر نقاط داده مانند کد پستی، که ممکن است با گروههای محروم تاریخی که قبلاً برای وام یا وام مسکن درخواست، تضمین یا بازپرداخت نکردهاند، مرتبط باشد، تبعیض قائل شوند.
و در بیشتر موارد، زمانی که یک الگوریتم تصمیمی میگیرد، درک اینکه چگونه به آن نتیجه رسیده است، برای کسی مشکل است که منجر به چیزی میشود که معمولاً به عنوان سندرم «جعبه سیاه» شناخته میشود. این بدان معناست که برای مثال، بانکها ممکن است در توضیح آنچه که متقاضی میتوانست برای واجد شرایط بودن برای دریافت وام یا کارت اعتباری متفاوت انجام داده باشد، یا اینکه تغییر جنسیت متقاضی از مرد به زن ممکن است به نتیجه متفاوتی منجر شود، مشکل داشته باشند.
Circiumaru گفت قانون هوش مصنوعی، که میتواند در اواخر سال 2024 اجرایی شود، به نفع شرکتهای فناوری است که موفق به توسعه مدلهای «مطمئن هوش مصنوعی» میشوند که با قوانین جدید اتحادیه اروپا مطابقت دارند.
دارکو ماتوسکی، مدیر اجرایی و یکی از بنیانگذاران استارتآپ هوش مصنوعی causaLens که مقر آن در لندن است، معتقد است که شرکت او نیز در میان آنهاست.
این استارت آپ که در ژانویه 2021 راه اندازی شد، قبلاً مجوز فناوری خود را به شرکت هایی مانند Aviva مدیر دارایی و شرکت تجارت کمی Tibra داده است و می گوید تعدادی از بانک های خرده فروشی در حال امضای قرارداد با شرکت قبل از اجرای قوانین اتحادیه اروپا هستند. لازم الاجرا شود.
این کارآفرین گفت causaLens شکل پیشرفتهتری از هوش مصنوعی ارائه میکند که با حسابداری و کنترل همبستگیهای تبعیضآمیز در دادهها، از سوگیری احتمالی جلوگیری میکند. ماتوسکی گفت: «مدلهای مبتنی بر همبستگی در حال یادگیری بیعدالتیها از گذشته هستند و فقط آن را در آینده تکرار میکنند.
او معتقد است که تکثیر مدلهای به اصطلاح گاه به گاه هوش مصنوعی مانند مدل او منجر به نتایج بهتری برای گروههای حاشیهای میشود که ممکن است فرصتهای آموزشی و مالی را از دست داده باشند.
او گفت: «درک میزان خسارتی که قبلاً ایجاد شده واقعاً سخت است، زیرا ما واقعاً نمیتوانیم این مدل را بررسی کنیم. ما نمی دانیم چند نفر به دلیل یک الگوریتم haywire به دانشگاه نرفته اند. ما نمی دانیم چند نفر به دلیل تعصبات الگوریتم نتوانستند وام مسکن خود را دریافت کنند. ما فقط نمی دانیم.»
ماتوسکی گفت تنها راه محافظت در برابر تبعیض احتمالی استفاده از ویژگی های محافظت شده مانند ناتوانی، جنسیت یا نژاد به عنوان ورودی است اما تضمین می کند که صرف نظر از آن ورودی های خاص، تصمیم تغییر نمی کند.
او گفت که این موضوع این است که مطمئن شویم مدلهای هوش مصنوعی ارزشهای اجتماعی کنونی ما را منعکس میکنند و از تداوم هرگونه تصمیمگیری نژادپرستانه، توانا یا زنستیزانه در گذشته اجتناب میکنند. «جامعه فکر میکند که ما باید با همه یکسان رفتار کنیم، فارغ از اینکه چه جنسیتی، کدپستی و چه نژادی دارند. بنابراین الگوریتمها نه تنها باید تلاش کنند این کار را انجام دهند، بلکه باید آن را تضمین کنند.»
در حالی که قوانین جدید اتحادیه اروپا احتمالا گام بزرگی در مهار تعصبات مبتنی بر ماشین خواهد بود، برخی از کارشناسان، از جمله کارشناسان موسسه Ada Lovelace، بر این تاکید دارند که مصرفکنندگان حق شکایت داشته باشند و اگر فکر میکنند در این مورد اعمال شدهاند، حق شکایت داشته باشند. در یک نقطه ضعف.
Circiumaru گفت: “خطرات ناشی از هوش مصنوعی، به ویژه زمانی که در شرایط خاص خاص اعمال شود، واقعی، قابل توجه و در حال حاضر وجود دارد.”
«مقررات AI باید تضمین کند که افراد با تأیید یا عدم تأیید استفاده از هوش مصنوعی به طور مناسب از آسیب محافظت میشوند و در مواردی که سیستمهای هوش مصنوعی تأیید شده نقص یا منجر به آسیب میشوند، راهحلهایی در دسترس باشد. ما نمیتوانیم وانمود کنیم که سیستمهای AI تأیید شده همیشه عملکردی عالی دارند و برای مواردی که این کار را نمیکنند آماده نمیشوند.»
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.