“آن را بشناسید، نظارت کنید، آن را حسابرسی کنید”: اقدام برای جلوگیری از هوش مصنوعی مراقبت های بهداشتی مغرضانه

به گزارش دپارتمان اخبار پزشکی پایگاه خبری آبان نیوز ،

اورلاندو، فلوریدا – به عنوان هوش مصنوعی به فضاهای بیشتری در مراقبت‌های بهداشتی منتقل می‌شود، سازمان‌ها باید برای اطمینان از اینکه الگوریتم‌های آن‌ها سوگیری بیشتری ایجاد نمی‌کنند، اقدام کنند و به نابرابری‌های بهداشتی قابل توجهی بیافزایند.

می تواند یک کار دلهره آور باشد. کارولین سان، استادیار کالج هانتر و دانشمند پژوهشی در دانشکده پرستاری دانشگاه کلمبیا، گفت: یکی از راه‌های شروع این است که اطمینان حاصل شود که افراد با پیشینه‌های کمتر از همان ابتدا پشت میز هستند.

او در یک پنل در دانشگاه گفت: “برنامه هایی برای کمک به زنان جوان رنگین پوست یا به طور کلی دختران ایجاد شده است تا کدنویس شوند و بخشی از نیروی کار فناوری اطلاعات سلامت شوند.” HIMSS22. “و من فکر می کنم که این یک راه واقعاً مهم برای انجام آن است، به جای اینکه فقط نگاه کنید، از جایی به عقب شروع کنید. [it] مانند، “خوب، در اینجا نتیجه است. این کاملا درست نیست ما چگونه این را درست کنیم؟’ شاید لازم باشد حتی بیشتر به عقب برگردیم و کمی عمیق‌تر بگردیم.”

اما ارزیابی اثربخشی آن برنامه‌های تنوع، برابری و شمول (DEI) نیز ضروری است. شانون هریس، استادیار دانشکده بازرگانی در دانشگاه مشترک المنافع ویرجینیا، گفت که ابتکارات DEI زیادی در سازمان های مراقبت های بهداشتی وجود دارد. اما آیا آنها فقط یک جعبه در حال بررسی هستند؟ کارگران در صورت مشاهده مشکل بالقوه چگونه می توانند وزن خود را بررسی کنند؟

“اگر می گویید، “اوه، خوب، هیچ راهی وجود ندارد که آنها بفهمند ما چه می کنیم.” خوب، چرا که نه؟ چرا آنها نمی توانند؟ آیا ما نباید به نحوی بتوانیم مردم را درک کنند که در سازمان چه می گذرد تا جایی که بتوانیم بفهمیم کجا ممکن است موارد نیاز به تنظیم داشته باشند.” .

هنگام استفاده از هوش مصنوعی لازم است عواملی مانند نژاد، وضعیت اجتماعی-اقتصادی و جنسیت را در نظر بگیرید، اما همچنین از نحوه تفسیر این اطلاعات توسط الگوریتم آگاه باشید.

به عنوان مثال، برای زنان باردار که به زایمان طبیعی پس از سزارین فکر می کنند. الگوریتمی که ارائه دهندگان مراقبت های بهداشتی استفاده می کنند خطر بیشتری را برای یک زن سیاه پوست یا اسپانیایی تبار اضافه می کند. تصور این است که آنها بر اساس داده های تاریخی کمتر موفق هستند. سان گفت: برای داشتن زایمان طبیعی واژینال موفق بعد از سزارین. اما در واقع، با انجام این کار، زنان سیاه‌پوست و لاتین تبار بیشتری را در شرایطی قرار می‌دهیم که در آن سزارین می‌شوند که ممکن است یک زن سفیدپوست نکند.»

تحقیق هریس بر برنامه ریزی قرارها تمرکز دارد. بیمارانی که نرخ عدم حضور بالاتری داشتند، پس از رزرو یا در اسلات رزرو شده قرار گرفتند تا کارایی کلینیک به حداکثر برسد. در نتیجه، در جمعیت خود، بیماران سیاه پوست بیشتر از بیماران غیرسیاه در کلینیک منتظر ماندند.

“هیچ نوع راه حل جادویی وجود نداشت که ما به صراحت نگفتیم، “داده های ما مغرضانه نژادی هستند، به این معنی که بهینه سازی ما نیاز به آگاهی از نژاد دارد، بنابراین می تواند این سوگیری را از بین ببرد.” و این می تواند بسیار دشوار باشد، درست است؟” او گفت.

جاکلین سانچز، مدیر ارشد فناوری اطلاعات در Planned Parenthood از جنوب غربی و مرکزی فلوریدا، گفت: راه حل این نیست که داده های خود را دور بریزید. اما شما باید بر خروجی خود نظارت داشته باشید و در صورت لزوم تغییراتی ایجاد کنید.

او گفت: “هوش مصنوعی خود را قابل انطباق کنید… کاری کنید که هوش مصنوعی یا الگوریتم های خود به سوالات به گونه ای پاسخ دهند که می خواهید به سوالات پاسخ دهید، نه اینکه ما در حال حاضر به سوالات پاسخ می دهیم.” “بنابراین، هوش مصنوعی خود را سازگار با تغییر، هوشمند کنید. از آن درس بگیرید، و اشکالی ندارد که اشتباه کنید. آن را بشناسید، نظارت کنید، بررسی کنید.”

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت خبری آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …