به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،
نیویورک تایمز برای اولین بار گزارش داد که گوگل پس از اینکه به اشتباه تصاویر پزشکی او از کشاله ران پسرش را به عنوان ماده آزار جنسی کودکان (CSAM) علامت گذاری کرده بود، از بازگرداندن حساب کاربری مردی خودداری کرده است. کارشناسان می گویند که تلاش برای به کارگیری راه حلی تکنولوژیکی برای یک مشکل اجتماعی یک دام اجتناب ناپذیر است.
کارشناسان مدتهاست در مورد محدودیتهای سیستمهای خودکار تشخیص تصویر سوء استفاده جنسی از کودکان هشدار دادهاند، به ویژه در شرایطی که شرکتها با فشار قانونی و عمومی برای کمک به رسیدگی به وجود مطالب سوء استفاده جنسی مواجه هستند.
«این شرکتها به حجم عظیمی از دادههای تهاجمی درباره زندگی مردم دسترسی دارند. دانیل کان گیلمور، کارشناس ارشد فناوری در ACLU، میگوید: و هنوز هم شرایط زندگی مردم را ندارند. همه جور چیزهایی هست که فقط واقعیت زندگی شما برای این غول های اطلاعاتی خوانا نیست. او افزود که استفاده از این سیستمها توسط شرکتهای فناوری که «بهعنوان نیابت» برای اجرای قانون عمل میکنند، مردم را در معرض خطر «تسخیر شدن» توسط «قدرت دولت» قرار میدهد.
مردی که نیویورک تایمز او را مارک معرفی کرد، پس از اینکه متوجه شد کشاله ران پسرش ملتهب است، عکس هایی از کشاله ران پسرش گرفت تا برای پزشک بفرستد. دکتر از آن تصویر برای تشخیص پسر مارک و تجویز آنتی بیوتیک استفاده کرد. هنگامی که عکس ها به طور خودکار در فضای ابری آپلود شدند، سیستم گوگل آنها را به عنوان CSAM شناسایی کرد. دو روز بعد، جیمیل مارک و سایر حسابهای گوگل، از جمله Google Fi، که سرویس تلفن او را ارائه میکند، به دلیل «محتوای مضر» که «نقض شدید خطمشیهای شرکت و ممکن است غیرقانونی باشد» غیرفعال شد. پیام در گوشی او او بعداً متوجه شد که گوگل ویدیوی دیگری را که او در تلفن خود داشت علامت گذاری کرده است و اداره پلیس سانفرانسیسکو تحقیقاتی را در مورد او آغاز کرده است.
مارک از هرگونه تخلف مجرمانه پاک شد، اما گوگل گفته است که بر تصمیم خود خواهد ماند.
کریستا مولدون، سخنگوی گوگل گفت: “ما در تعریف CSAM از قوانین ایالات متحده پیروی می کنیم و از ترکیبی از فناوری تطبیق هش و هوش مصنوعی برای شناسایی و حذف آن از سیستم عامل های خود استفاده می کنیم.”
مولدون اضافه کرد که کارکنان Google که CSAM را بررسی میکنند توسط متخصصان پزشکی آموزش دیدهاند تا به دنبال بثورات یا سایر مسائل باشند. او گفت، با این حال، آنها خودشان متخصص پزشکی نبودند و هنگام بررسی هر مورد از کارشناسان پزشکی مشورت نمی شد.
به گفته گیلمور، این فقط یکی از راه هایی است که این سیستم ها می توانند آسیب وارد کنند. به عنوان مثال، برای پرداختن به محدودیتهایی که الگوریتمها ممکن است در تمایز بین تصاویر سوء استفاده جنسی مضر و تصاویر پزشکی داشته باشند، شرکتها اغلب یک انسان را در جریان دارند. اما این افراد ذاتاً در تخصص خود محدود هستند و دریافت زمینه مناسب برای هر مورد مستلزم دسترسی بیشتر به داده های کاربر است. گیلمور گفت که این یک فرآیند بسیار مزاحم تر است که هنوز هم می تواند روشی ناکارآمد برای تشخیص CSAM باشد.
او گفت: “این سیستم ها می توانند مشکلات واقعی برای مردم ایجاد کنند.” و این فقط این نیست که من فکر نمیکنم این سیستمها بتوانند هر مورد کودک آزاری را شناسایی کنند، بلکه عواقب بسیار وحشتناکی از نظر مثبت کاذب برای مردم دارند. زندگی مردم واقعاً میتواند توسط ماشینآلات و انسانهایی که در این حلقه هستند، به سادگی تصمیمگیری نادرست میکنند، زیرا آنها هیچ دلیلی برای تلاش برای رفع آن ندارند.»
گیلمور استدلال کرد که فناوری راه حل این مشکل نیست. او گفت که در واقع می تواند بسیاری از مشکلات جدید ایجاد کند، از جمله ایجاد یک سیستم نظارت قوی که می تواند به طور نامتناسبی به افرادی که در حاشیه هستند آسیب برساند.
“رویایی از یک جور چیزهای فناورانه وجود دارد، [where people say]او گفت، “اوه، خوب، می دانید، یک برنامه برای من وجود دارد که یک ناهار ارزان پیدا کنم، چرا نمی تواند یک برنامه برای یافتن راه حلی برای یک مشکل اجتماعی خاردار، مانند سوء استفاده جنسی از کودکان وجود داشته باشد؟” “خب، می دانید، آنها ممکن است با همان نوع فناوری یا مجموعه مهارت قابل حل نباشند.”
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.