گوگل پس از گرفتن تصاویر پزشکی از کشاله ران پسرش از بازگرداندن حساب کاربری خودداری کرد | فن آوری

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،

نیویورک تایمز برای اولین بار گزارش داد که گوگل پس از اینکه به اشتباه تصاویر پزشکی او از کشاله ران پسرش را به عنوان ماده آزار جنسی کودکان (CSAM) علامت گذاری کرده بود، از بازگرداندن حساب کاربری مردی خودداری کرده است. کارشناسان می گویند که تلاش برای به کارگیری راه حلی تکنولوژیکی برای یک مشکل اجتماعی یک دام اجتناب ناپذیر است.

کارشناسان مدت‌هاست در مورد محدودیت‌های سیستم‌های خودکار تشخیص تصویر سوء استفاده جنسی از کودکان هشدار داده‌اند، به ویژه در شرایطی که شرکت‌ها با فشار قانونی و عمومی برای کمک به رسیدگی به وجود مطالب سوء استفاده جنسی مواجه هستند.

«این شرکت‌ها به حجم عظیمی از داده‌های تهاجمی درباره زندگی مردم دسترسی دارند. دانیل کان گیلمور، کارشناس ارشد فناوری در ACLU، می‌گوید: و هنوز هم شرایط زندگی مردم را ندارند. همه جور چیزهایی هست که فقط واقعیت زندگی شما برای این غول های اطلاعاتی خوانا نیست. او افزود که استفاده از این سیستم‌ها توسط شرکت‌های فناوری که «به‌عنوان نیابت» برای اجرای قانون عمل می‌کنند، مردم را در معرض خطر «تسخیر شدن» توسط «قدرت دولت» قرار می‌دهد.

مردی که نیویورک تایمز او را مارک معرفی کرد، پس از اینکه متوجه شد کشاله ران پسرش ملتهب است، عکس هایی از کشاله ران پسرش گرفت تا برای پزشک بفرستد. دکتر از آن تصویر برای تشخیص پسر مارک و تجویز آنتی بیوتیک استفاده کرد. هنگامی که عکس ها به طور خودکار در فضای ابری آپلود شدند، سیستم گوگل آنها را به عنوان CSAM شناسایی کرد. دو روز بعد، جی‌میل مارک و سایر حساب‌های گوگل، از جمله Google Fi، که سرویس تلفن او را ارائه می‌کند، به دلیل «محتوای مضر» که «نقض شدید خط‌مشی‌های شرکت و ممکن است غیرقانونی باشد» غیرفعال شد. پیام در گوشی او او بعداً متوجه شد که گوگل ویدیوی دیگری را که او در تلفن خود داشت علامت گذاری کرده است و اداره پلیس سانفرانسیسکو تحقیقاتی را در مورد او آغاز کرده است.

مارک از هرگونه تخلف مجرمانه پاک شد، اما گوگل گفته است که بر تصمیم خود خواهد ماند.

کریستا مولدون، سخنگوی گوگل گفت: “ما در تعریف CSAM از قوانین ایالات متحده پیروی می کنیم و از ترکیبی از فناوری تطبیق هش و هوش مصنوعی برای شناسایی و حذف آن از سیستم عامل های خود استفاده می کنیم.”

مولدون اضافه کرد که کارکنان Google که CSAM را بررسی می‌کنند توسط متخصصان پزشکی آموزش دیده‌اند تا به دنبال بثورات یا سایر مسائل باشند. او گفت، با این حال، آنها خودشان متخصص پزشکی نبودند و هنگام بررسی هر مورد از کارشناسان پزشکی مشورت نمی شد.

به گفته گیلمور، این فقط یکی از راه هایی است که این سیستم ها می توانند آسیب وارد کنند. به عنوان مثال، برای پرداختن به محدودیت‌هایی که الگوریتم‌ها ممکن است در تمایز بین تصاویر سوء استفاده جنسی مضر و تصاویر پزشکی داشته باشند، شرکت‌ها اغلب یک انسان را در جریان دارند. اما این افراد ذاتاً در تخصص خود محدود هستند و دریافت زمینه مناسب برای هر مورد مستلزم دسترسی بیشتر به داده های کاربر است. گیلمور گفت که این یک فرآیند بسیار مزاحم تر است که هنوز هم می تواند روشی ناکارآمد برای تشخیص CSAM باشد.

او گفت: “این سیستم ها می توانند مشکلات واقعی برای مردم ایجاد کنند.” و این فقط این نیست که من فکر نمی‌کنم این سیستم‌ها بتوانند هر مورد کودک آزاری را شناسایی کنند، بلکه عواقب بسیار وحشتناکی از نظر مثبت کاذب برای مردم دارند. زندگی مردم واقعاً می‌تواند توسط ماشین‌آلات و انسان‌هایی که در این حلقه هستند، به سادگی تصمیم‌گیری نادرست می‌کنند، زیرا آنها هیچ دلیلی برای تلاش برای رفع آن ندارند.»

گیلمور استدلال کرد که فناوری راه حل این مشکل نیست. او گفت که در واقع می تواند بسیاری از مشکلات جدید ایجاد کند، از جمله ایجاد یک سیستم نظارت قوی که می تواند به طور نامتناسبی به افرادی که در حاشیه هستند آسیب برساند.

“رویایی از یک جور چیزهای فناورانه وجود دارد، [where people say]او گفت، “اوه، خوب، می دانید، یک برنامه برای من وجود دارد که یک ناهار ارزان پیدا کنم، چرا نمی تواند یک برنامه برای یافتن راه حلی برای یک مشکل اجتماعی خاردار، مانند سوء استفاده جنسی از کودکان وجود داشته باشد؟” “خب، می دانید، آنها ممکن است با همان نوع فناوری یا مجموعه مهارت قابل حل نباشند.”

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …