مردیت بروسارد، کارشناس هوش مصنوعی: «نژادپرستی، تبعیض جنسیتی و توانایی‌گرایی مشکلات سیستمی هستند» | هوش مصنوعی (AI)

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

ماردیت بروسارد روزنامه نگار داده و دانشگاهی است که تحقیقاتش بر سوگیری در هوش مصنوعی (AI) متمرکز است. او پیشرو در افزایش آگاهی و به صدا درآوردن زنگ خطر در مورد هوش مصنوعی کنترل نشده بوده است. کتاب قبلی او، بی هوشی مصنوعی (2018)، اصطلاح “تکنوشوینیسم” را برای توصیف اعتقاد کورکورانه به برتری راه حل های فناوری برای حل مشکلات ما ابداع کرد. او در مستند نتفلیکس ظاهر شد تعصب کدگذاری شده (2020)، که به بررسی نحوه کدگذاری و انتشار تبعیض توسط الگوریتم ها می پردازد. کتاب جدید او است بیشتر بیش از یک نقص: مقابله با تعصب نژاد، جنسیت و توانایی در فناوری. بروسارد دانشیار موسسه روزنامه نگاری آرتور ال کارتر دانشگاه نیویورک است.

این پیام که تعصب می‌تواند در سیستم‌های فناوری ما تعبیه شود، واقعاً جدید نیست. چرا به این کتاب نیاز داریم؟
این کتاب در مورد کمک به مردم برای درک آسیب های اجتماعی بسیار واقعی است که می تواند در فناوری جاسازی شود. ما در مورد سوگیری الگوریتمی و آسیب هایی که مردم تجربه کرده اند، انفجاری از روزنامه نگاری و پژوهش های شگفت انگیز داشته ایم. من سعی می کنم آن گزارش و تفکر را بالا ببرم. همچنین می‌خواهم مردم بدانند که اکنون روش‌هایی برای اندازه‌گیری سوگیری در سیستم‌های الگوریتمی داریم. آنها جعبه سیاه کاملاً ناشناخته نیستند: حسابرسی الگوریتمی وجود دارد و می توان انجام داد.

چرا مشکل “بیش از یک نقص” است؟ اگر الگوریتم‌ها می‌توانند نژادپرستانه و جنسیت‌گرا باشند زیرا با استفاده از مجموعه داده‌های مغرضانه آموزش داده شده‌اند که همه افراد را نشان نمی‌دهند، آیا پاسخ فقط داده‌های نماینده‌تر نیست؟
یک نقص چیزی موقتی را نشان می دهد که به راحتی قابل رفع است. من استدلال می‌کنم که نژادپرستی، جنسیت‌گرایی و توانایی‌گرایی مشکلات سیستمی هستند که در سیستم‌های فن‌آوری ما ریخته می‌شوند، زیرا در جامعه ایجاد شده‌اند. اگر اصلاحات داده های بیشتری داشت عالی بود. اما اگر مشکل اساسی جامعه باشد، داده های بیشتر سیستم های فناورانه ما را اصلاح نمی کند. الگوریتم‌های تایید وام مسکن را در نظر بگیرید، که مشخص شده است 40 تا 80 درصد بیشتر از همتایان سفیدپوست خود احتمال رد رنگ وام‌گیرندگان را دارند. دلیل این امر این است که الگوریتم‌ها با استفاده از داده‌هایی در مورد افرادی که در گذشته وام‌های مسکن دریافت کرده‌اند آموزش داده شده‌اند و در ایالات متحده، سابقه طولانی تبعیض در وام‌دهی وجود دارد. ما نمی‌توانیم الگوریتم‌ها را با تغذیه داده‌های بهتر درست کنیم زیرا داده‌های بهتری وجود ندارد.

شما استدلال می کنید که ما باید در مورد فناوری هایی که به زندگی و جامعه خود اجازه می دهیم انتخاب بیشتری داشته باشیم. آیا اصلاً باید هرگونه فناوری مبتنی بر هوش مصنوعی را که سوگیری را رمزگذاری می کند رد کنیم؟
هوش مصنوعی امروزه در تمام فناوری های ما وجود دارد. اما ما می‌توانیم بخواهیم که فناوری‌های ما به خوبی – برای همه – کار کنند و می‌توانیم برخی از انتخاب‌های عمدی در مورد استفاده از آنها داشته باشیم.

من مشتاق تمایز موجود در قانون هوش مصنوعی اتحادیه اروپا هستم که استفاده‌ها را بر اساس زمینه به دو دسته پرخطر و کم خطر تقسیم می‌کند. استفاده کم خطر از تشخیص چهره ممکن است استفاده از آن برای باز کردن قفل تلفن شما باشد: خطرات کم است – اگر کار نکرد، رمز عبور دارید. اما تشخیص چهره در پلیس یک استفاده پرخطر است که باید تنظیم شود یا – بهتر است – اصلاً استفاده نشود زیرا منجر به دستگیری های غیرقانونی می شود و خیلی مؤثر نیست. اگر از رایانه برای کاری استفاده نکنید، پایان دنیا نیست. شما نمی توانید فرض کنید که یک سیستم تکنولوژیکی خوب است زیرا وجود دارد.

اشتیاق زیادی برای استفاده از هوش مصنوعی برای کمک به تشخیص بیماری وجود دارد. اما تعصب نژادی نیز در حال ایجاد است، از جمله از مجموعه داده های غیرمعمول (به عنوان مثال، هوش مصنوعی سرطان پوست احتمالاً روی پوست‌های روشن‌تر به مراتب بهتر عمل می‌کند، زیرا این بیشتر همان چیزی است که در داده‌های آموزشی وجود دارد). باید تلاش کنیم برای قرار دادن “آستانه های قابل قبول” برای سوگیری در الگوریتم های پزشکی، همانطور که برخی پیشنهاد کرده اند؟
من فکر نمی‌کنم که جهان برای انجام این گفتگو آماده باشد. ما هنوز در سطحی هستیم که نیاز به افزایش آگاهی از نژادپرستی در پزشکی داریم. قبل از اینکه جامعه را در الگوریتم‌ها منجمد کنیم، باید یک قدم به عقب برداریم و چند چیز را در مورد جامعه اصلاح کنیم. یک تصمیم نژادپرستانه که در کد رسمی شده است، دیدن یا ریشه کن کردن آن دشوار می شود.

سرطان سینه شما تشخیص داده شد و تحت درمان موفقیت آمیز قرار گرفتید. پس از تشخیص، ماموگرافی های خود را از طریق یک هوش مصنوعی منبع باز تشخیص سرطان آزمایش کردید و متوجه شدید که واقعاً سرطان سینه شما را تشخیص می دهد. کار کرد! خیلی خبر عالی؟
دیدن اینکه هوش مصنوعی یک کادر قرمز رنگ در اطراف ناحیه اسکن که تومور من در آن قرار داشت، بسیار زیبا بود. اما از این آزمایش یاد گرفتم که هوش مصنوعی تشخیصی ابزاری بسیار واضح‌تر از آنچه تصور می‌کردم است و معاوضه‌های پیچیده‌ای وجود دارد. به عنوان مثال، توسعه دهندگان باید در مورد میزان دقت انتخاب کنند: مثبت کاذب بیشتر یا منفی کاذب؟ آنها از اولی حمایت می کنند زیرا از دست دادن چیزی بدتر به نظر می رسد، اما این بدان معناست که اگر مثبت کاذب داشته باشید وارد خط لوله تشخیص می شوید که می تواند به معنای هفته ها وحشت و آزمایش تهاجمی باشد. بسیاری از مردم آینده ای شیک را تصور می کنند که در آن ماشین ها جایگزین پزشکان می شوند. این برای من فریبنده به نظر نمی رسد.

آیا امیدواریم بتوانیم الگوریتم های خود را بهبود بخشیم؟
من به پتانسیل حسابرسی الگوریتمی خوشبین هستم – فرآیند بررسی ورودی ها، خروجی ها و کد یک الگوریتم برای ارزیابی آن از نظر سوگیری. من در این مورد کارهایی انجام داده ام. هدف تمرکز بر روی الگوریتم‌هایی است که در زمینه‌های خاص استفاده می‌شوند و نگرانی‌های همه ذینفعان، از جمله اعضای یک جامعه آسیب‌دیده را برطرف می‌کنند.

چت ربات‌های هوش مصنوعی همه‌گیر هستند. اما این فناوری نیز مملو از تعصب است. نرده های محافظ اضافه شده به ChatGPT OpenAI به راحتی قابل جابجایی بوده است. کجا اشتباه کردیم؟
اگرچه کارهای بیشتری باید انجام شود، من از نرده های محافظ قدردانی می کنم. در گذشته اینطور نبوده، بنابراین پیشرفت است. اما وقتی هوش مصنوعی به روش های بسیار قابل پیش بینی خراب می شود، باید غافلگیر نشویم. مشکلاتی که با ChatGPT می بینیم توسط محققان اخلاق هوش مصنوعی، از جمله Timnit Gebru پیش بینی و نوشته شده بود. [who was forced out of Google in late 2020]. ما باید بدانیم که این فناوری جادویی نیست. توسط مردم مونتاژ می شود، مشکل دارد و از بین می رود.

سام آلتمن، یکی از بنیانگذاران OpenAI اخیراً پزشکان هوش مصنوعی ارتقا یافته اند به عنوان راهی برای حل بحران بهداشت و درمان به نظر می‌رسد که او یک سیستم مراقبت‌های بهداشتی دو لایه را پیشنهاد می‌کند – یکی برای ثروتمندان، که در آن از مشاوره با پزشکان انسانی لذت می‌برند، و دیگری برای ما که در آن هوش مصنوعی مشاهده می‌کنیم. آیا اوضاع اینگونه پیش می رود و آیا شما نگران هستید؟
هوش مصنوعی در پزشکی خیلی خوب کار نمی کند، بنابراین اگر یک فرد بسیار ثروتمند بگوید: “هی، شما می توانید هوش مصنوعی داشته باشید تا مراقبت های بهداشتی خود را انجام دهید و ما پزشکان را برای خود نگه خواهیم داشت”، به نظر من یک مشکل است و نه چیزی که ما را به سوی دنیایی بهتر هدایت می کند. همچنین، این الگوریتم‌ها برای همه در دسترس هستند، بنابراین ممکن است مشکلات را نیز برطرف کنیم.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …