به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
ماردیت بروسارد روزنامه نگار داده و دانشگاهی است که تحقیقاتش بر سوگیری در هوش مصنوعی (AI) متمرکز است. او پیشرو در افزایش آگاهی و به صدا درآوردن زنگ خطر در مورد هوش مصنوعی کنترل نشده بوده است. کتاب قبلی او، بی هوشی مصنوعی (2018)، اصطلاح “تکنوشوینیسم” را برای توصیف اعتقاد کورکورانه به برتری راه حل های فناوری برای حل مشکلات ما ابداع کرد. او در مستند نتفلیکس ظاهر شد تعصب کدگذاری شده (2020)، که به بررسی نحوه کدگذاری و انتشار تبعیض توسط الگوریتم ها می پردازد. کتاب جدید او است بیشتر بیش از یک نقص: مقابله با تعصب نژاد، جنسیت و توانایی در فناوری. بروسارد دانشیار موسسه روزنامه نگاری آرتور ال کارتر دانشگاه نیویورک است.
این پیام که تعصب میتواند در سیستمهای فناوری ما تعبیه شود، واقعاً جدید نیست. چرا به این کتاب نیاز داریم؟
این کتاب در مورد کمک به مردم برای درک آسیب های اجتماعی بسیار واقعی است که می تواند در فناوری جاسازی شود. ما در مورد سوگیری الگوریتمی و آسیب هایی که مردم تجربه کرده اند، انفجاری از روزنامه نگاری و پژوهش های شگفت انگیز داشته ایم. من سعی می کنم آن گزارش و تفکر را بالا ببرم. همچنین میخواهم مردم بدانند که اکنون روشهایی برای اندازهگیری سوگیری در سیستمهای الگوریتمی داریم. آنها جعبه سیاه کاملاً ناشناخته نیستند: حسابرسی الگوریتمی وجود دارد و می توان انجام داد.
چرا مشکل “بیش از یک نقص” است؟ اگر الگوریتمها میتوانند نژادپرستانه و جنسیتگرا باشند زیرا با استفاده از مجموعه دادههای مغرضانه آموزش داده شدهاند که همه افراد را نشان نمیدهند، آیا پاسخ فقط دادههای نمایندهتر نیست؟
یک نقص چیزی موقتی را نشان می دهد که به راحتی قابل رفع است. من استدلال میکنم که نژادپرستی، جنسیتگرایی و تواناییگرایی مشکلات سیستمی هستند که در سیستمهای فنآوری ما ریخته میشوند، زیرا در جامعه ایجاد شدهاند. اگر اصلاحات داده های بیشتری داشت عالی بود. اما اگر مشکل اساسی جامعه باشد، داده های بیشتر سیستم های فناورانه ما را اصلاح نمی کند. الگوریتمهای تایید وام مسکن را در نظر بگیرید، که مشخص شده است 40 تا 80 درصد بیشتر از همتایان سفیدپوست خود احتمال رد رنگ وامگیرندگان را دارند. دلیل این امر این است که الگوریتمها با استفاده از دادههایی در مورد افرادی که در گذشته وامهای مسکن دریافت کردهاند آموزش داده شدهاند و در ایالات متحده، سابقه طولانی تبعیض در وامدهی وجود دارد. ما نمیتوانیم الگوریتمها را با تغذیه دادههای بهتر درست کنیم زیرا دادههای بهتری وجود ندارد.
شما استدلال می کنید که ما باید در مورد فناوری هایی که به زندگی و جامعه خود اجازه می دهیم انتخاب بیشتری داشته باشیم. آیا اصلاً باید هرگونه فناوری مبتنی بر هوش مصنوعی را که سوگیری را رمزگذاری می کند رد کنیم؟
هوش مصنوعی امروزه در تمام فناوری های ما وجود دارد. اما ما میتوانیم بخواهیم که فناوریهای ما به خوبی – برای همه – کار کنند و میتوانیم برخی از انتخابهای عمدی در مورد استفاده از آنها داشته باشیم.
من مشتاق تمایز موجود در قانون هوش مصنوعی اتحادیه اروپا هستم که استفادهها را بر اساس زمینه به دو دسته پرخطر و کم خطر تقسیم میکند. استفاده کم خطر از تشخیص چهره ممکن است استفاده از آن برای باز کردن قفل تلفن شما باشد: خطرات کم است – اگر کار نکرد، رمز عبور دارید. اما تشخیص چهره در پلیس یک استفاده پرخطر است که باید تنظیم شود یا – بهتر است – اصلاً استفاده نشود زیرا منجر به دستگیری های غیرقانونی می شود و خیلی مؤثر نیست. اگر از رایانه برای کاری استفاده نکنید، پایان دنیا نیست. شما نمی توانید فرض کنید که یک سیستم تکنولوژیکی خوب است زیرا وجود دارد.
اشتیاق زیادی برای استفاده از هوش مصنوعی برای کمک به تشخیص بیماری وجود دارد. اما تعصب نژادی نیز در حال ایجاد است، از جمله از مجموعه داده های غیرمعمول (به عنوان مثال، هوش مصنوعی سرطان پوست احتمالاً روی پوستهای روشنتر به مراتب بهتر عمل میکند، زیرا این بیشتر همان چیزی است که در دادههای آموزشی وجود دارد). باید تلاش کنیم برای قرار دادن “آستانه های قابل قبول” برای سوگیری در الگوریتم های پزشکی، همانطور که برخی پیشنهاد کرده اند؟
من فکر نمیکنم که جهان برای انجام این گفتگو آماده باشد. ما هنوز در سطحی هستیم که نیاز به افزایش آگاهی از نژادپرستی در پزشکی داریم. قبل از اینکه جامعه را در الگوریتمها منجمد کنیم، باید یک قدم به عقب برداریم و چند چیز را در مورد جامعه اصلاح کنیم. یک تصمیم نژادپرستانه که در کد رسمی شده است، دیدن یا ریشه کن کردن آن دشوار می شود.
سرطان سینه شما تشخیص داده شد و تحت درمان موفقیت آمیز قرار گرفتید. پس از تشخیص، ماموگرافی های خود را از طریق یک هوش مصنوعی منبع باز تشخیص سرطان آزمایش کردید و متوجه شدید که واقعاً سرطان سینه شما را تشخیص می دهد. کار کرد! خیلی خبر عالی؟
دیدن اینکه هوش مصنوعی یک کادر قرمز رنگ در اطراف ناحیه اسکن که تومور من در آن قرار داشت، بسیار زیبا بود. اما از این آزمایش یاد گرفتم که هوش مصنوعی تشخیصی ابزاری بسیار واضحتر از آنچه تصور میکردم است و معاوضههای پیچیدهای وجود دارد. به عنوان مثال، توسعه دهندگان باید در مورد میزان دقت انتخاب کنند: مثبت کاذب بیشتر یا منفی کاذب؟ آنها از اولی حمایت می کنند زیرا از دست دادن چیزی بدتر به نظر می رسد، اما این بدان معناست که اگر مثبت کاذب داشته باشید وارد خط لوله تشخیص می شوید که می تواند به معنای هفته ها وحشت و آزمایش تهاجمی باشد. بسیاری از مردم آینده ای شیک را تصور می کنند که در آن ماشین ها جایگزین پزشکان می شوند. این برای من فریبنده به نظر نمی رسد.
آیا امیدواریم بتوانیم الگوریتم های خود را بهبود بخشیم؟
من به پتانسیل حسابرسی الگوریتمی خوشبین هستم – فرآیند بررسی ورودی ها، خروجی ها و کد یک الگوریتم برای ارزیابی آن از نظر سوگیری. من در این مورد کارهایی انجام داده ام. هدف تمرکز بر روی الگوریتمهایی است که در زمینههای خاص استفاده میشوند و نگرانیهای همه ذینفعان، از جمله اعضای یک جامعه آسیبدیده را برطرف میکنند.
چت رباتهای هوش مصنوعی همهگیر هستند. اما این فناوری نیز مملو از تعصب است. نرده های محافظ اضافه شده به ChatGPT OpenAI به راحتی قابل جابجایی بوده است. کجا اشتباه کردیم؟
اگرچه کارهای بیشتری باید انجام شود، من از نرده های محافظ قدردانی می کنم. در گذشته اینطور نبوده، بنابراین پیشرفت است. اما وقتی هوش مصنوعی به روش های بسیار قابل پیش بینی خراب می شود، باید غافلگیر نشویم. مشکلاتی که با ChatGPT می بینیم توسط محققان اخلاق هوش مصنوعی، از جمله Timnit Gebru پیش بینی و نوشته شده بود. [who was forced out of Google in late 2020]. ما باید بدانیم که این فناوری جادویی نیست. توسط مردم مونتاژ می شود، مشکل دارد و از بین می رود.
سام آلتمن، یکی از بنیانگذاران OpenAI اخیراً پزشکان هوش مصنوعی ارتقا یافته اند به عنوان راهی برای حل بحران بهداشت و درمان به نظر میرسد که او یک سیستم مراقبتهای بهداشتی دو لایه را پیشنهاد میکند – یکی برای ثروتمندان، که در آن از مشاوره با پزشکان انسانی لذت میبرند، و دیگری برای ما که در آن هوش مصنوعی مشاهده میکنیم. آیا اوضاع اینگونه پیش می رود و آیا شما نگران هستید؟
هوش مصنوعی در پزشکی خیلی خوب کار نمی کند، بنابراین اگر یک فرد بسیار ثروتمند بگوید: “هی، شما می توانید هوش مصنوعی داشته باشید تا مراقبت های بهداشتی خود را انجام دهید و ما پزشکان را برای خود نگه خواهیم داشت”، به نظر من یک مشکل است و نه چیزی که ما را به سوی دنیایی بهتر هدایت می کند. همچنین، این الگوریتمها برای همه در دسترس هستند، بنابراین ممکن است مشکلات را نیز برطرف کنیم.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.