به گزارش دپارتمان اخبار فناوری پایگاه خبری آبان نیوز ،
اپل از طرحهایی برای اسکن آیفونهای ایالات متحده برای یافتن تصاویر سوء استفاده جنسی از کودکان رونمایی کرد، که تشویق گروههای حمایت از کودکان را برانگیخت، اما نگرانی برخی از محققان امنیتی را در مورد سوء استفاده از این سیستم، از جمله توسط دولتهایی که به دنبال نظارت بر شهروندان خود هستند، افزایش داد.
ابزاری که برای شناسایی تصاویر شناخته شده سوء استفاده جنسی از کودکان طراحی شده است، به نام “neuralMatch”، تصاویر را قبل از آپلود در iCloud اسکن می کند.
اگر مطابقت پیدا کند، تصویر توسط یک انسان بررسی می شود. اگر هرزهنگاری کودک تأیید شود، حساب کاربر غیرفعال میشود و به مرکز ملی کودکان گمشده و مورد بهرهکشی اطلاع داده میشود.
به طور جداگانه، اپل قصد دارد پیام های رمزگذاری شده کاربران را برای محتوای غیراخلاقی جنسی به عنوان یک اقدام ایمنی کودکان اسکن کند، که طرفداران حفظ حریم خصوصی را نیز نگران کرد.
سیستم تشخیص تنها تصاویری را که قبلاً در پایگاه دادههای هرزهنگاری کودکان شناختهشده در مرکز وجود دارد، پرچمگذاری میکند. والدینی که از یک کودک در حمام عکس بی گناه می گیرند، احتمالاً جای نگرانی نیست.
اما محققان میگویند ابزار تطبیق – که چنین تصاویری را “نمیبیند”، فقط “اثرانگشت” ریاضی که آنها را نشان میدهد، میتواند برای اهداف پلیدتری قرار گیرد.
متیو گرین، محقق ارشد رمزنگاری در دانشگاه جانز هاپکینز، هشدار داد که این سیستم میتواند برای قاببندی افراد بیگناه با ارسال تصاویر بهظاهر بیضرر که برای ایجاد تطابق با پورنوگرافی کودکان طراحی شدهاند، مورد استفاده قرار گیرد. این می تواند الگوریتم اپل را فریب دهد و به مجریان قانون هشدار دهد.
او درباره توانایی فریب چنین سیستمهایی گفت: «محققان به راحتی توانستهاند این کار را انجام دهند.
احتمال سوء استفاده
سایر سوء استفاده ها می تواند شامل نظارت دولت از مخالفان یا معترضان باشد. گرین پرسید: «وقتی دولت چین میگوید: «در اینجا فهرستی از فایلهایی که میخواهیم آنها را اسکن کنید، چه اتفاقی میافتد».
“آیا اپل نه می گوید؟ امیدوارم که آنها نه بگویند، اما فناوری آنها نه می گوید.”
شرکتهای فناوری از جمله مایکروسافت، گوگل، فیسبوک و دیگران سالهاست که اثر انگشت دیجیتالی تصاویر سوء استفاده جنسی از کودکان را به اشتراک میگذارند. اپل از آنها برای اسکن فایلهای کاربر ذخیرهشده در سرویس iCloud خود استفاده کرده است که به اندازه دادههای روی دستگاهش رمزگذاری نشده است، برای هرزهنگاری کودکان.
اپل سال هاست که تحت فشار دولت بوده است تا امکان نظارت بیشتر بر داده های رمزگذاری شده را فراهم کند.
اتخاذ تدابیر امنیتی جدید، اپل را ملزم میکرد تا یک عمل متعادل کننده ظریف بین سرکوب استثمار کودکان انجام دهد و در عین حال تعهد بلندپایه خود را برای محافظت از حریم خصوصی کاربرانش حفظ کند.
اما یک بنیاد افسرده Electronic Frontier، پیشگام آزادی های مدنی آنلاین، مصالحه اپل در مورد حفاظت از حریم خصوصی را “وجهه تکان دهنده ای برای کاربرانی خواند که به رهبری شرکت در حفظ حریم خصوصی و امنیت اعتماد کرده اند”.
در همین حال، دانشمند کامپیوتری که بیش از یک دهه پیش PhotoDNA را اختراع کرد، فناوری مورد استفاده مجریان قانون برای شناسایی هرزهنگاری کودکان آنلاین، احتمال سوء استفاده از سیستم اپل را تصدیق کرد اما گفت که این امر بسیار بیشتر از ضرورت مبارزه با سوء استفاده جنسی از کودکان است.
هانی فرید، محقق دانشگاه کالیفرنیا در برکلی، گفت: “آیا ممکن است؟ البته. اما آیا این چیزی است که من نگران آن هستم؟ نه.” “این نوع خزش ماموریت” را ندیده ام.
برای مثال، واتساپ برای محافظت از حریم خصوصی کاربران، رمزگذاری سرتاسری را در اختیار کاربران قرار میدهد، اما همچنین از سیستمی برای شناسایی بدافزارها استفاده میکند و به کاربران هشدار میدهد که روی پیوندهای مضر کلیک نکنند.
‘تغییر دهنده ی بازی’
اپل یکی از اولین شرکتهای بزرگی بود که «رمزگذاری سرتاسری را پذیرفت، که در آن پیامها به گونهای درهم میشوند که فقط فرستندگان و گیرندگان آنها بتوانند آنها را بخوانند. با این حال، مجریان قانون مدتها است که شرکت را برای دسترسی به این اطلاعات تحت فشار قرار دادهاند. به منظور بررسی جنایاتی مانند تروریسم یا بهره کشی جنسی از کودکان.
اپل اعلام کرد که آخرین تغییرات در سال جاری به عنوان بخشی از به روز رسانی نرم افزار عامل خود برای آیفون، مک و اپل واچ منتشر خواهد شد.
جان کلارک، رئیس و مدیر عامل مرکز ملی کودکان مفقود شده و مورد استثمار، در بیانیهای گفت: «حفاظت گسترده اپل برای کودکان یک تغییر دهنده بازی است. با توجه به اینکه افراد زیادی از محصولات اپل استفاده می کنند، این اقدامات ایمنی جدید پتانسیل نجات جان کودکان را دارد.
جولیا کوردوا، مدیر عامل تورن، گفت که فناوری اپل «نیاز به حفظ حریم خصوصی و امنیت دیجیتال برای کودکان» را متعادل میکند. Thorn، یک سازمان غیرانتفاعی که توسط دمی مور و اشتون کوچر تأسیس شده است، از فناوری برای کمک به محافظت از کودکان در برابر سوء استفاده جنسی با شناسایی قربانیان استفاده میکند. کار با پلتفرم های فناوری
شکستن امنیت
اما مرکز غیرانتفاعی دموکراسی و فناوری مستقر در واشنگتن در انتقادی تند از اپل خواست تا از تغییراتی که به گفته او عملاً تضمین این شرکت را برای «رمزگذاری سرتاسر» از بین میبرد، دست بردارد.
اسکن پیامها برای محتوای غیراخلاقی جنسی در تلفنها یا رایانهها به طور موثر امنیت را از بین میبرد.
این سازمان همچنین فناوری اپل را برای تمایز بین محتوای خطرناک و چیزی به اندازه هنر یا میم زیر سوال برد. CDT در بیانیه ای ایمیلی گفت که چنین فناوری هایی به طور بدنامی مستعد خطا هستند. اپل انکار می کند که تغییرات به منزله یک درب پشتی است که رمزگذاری آن را کاهش می دهد. این می گوید که آنها به دقت نوآوری هایی هستند که حریم خصوصی کاربر را مختل نمی کنند بلکه به شدت از آن محافظت می کنند.
به طور جداگانه، اپل اعلام کرد که اپلیکیشن پیامرسانش از یادگیری ماشینی روی دستگاه برای شناسایی و محو کردن عکسهای غیراخلاقی جنسی در تلفنهای کودکان استفاده میکند و همچنین میتواند از طریق پیامک به والدین کودکان کوچکتر هشدار دهد. همچنین گفت که نرم افزار آن زمانی که کاربران سعی می کنند موضوعات مرتبط با سوء استفاده جنسی از کودکان را جستجو کنند، «دخالت می کند».
برای دریافت هشدار درباره تصاویر غیراخلاقی جنسی در دستگاههای فرزندانشان، والدین باید تلفن فرزندشان را ثبت کنند. کودکان بالای 13 سال می توانند ثبت نام خود را لغو کنند، به این معنی که والدین نوجوانان اعلان دریافت نخواهند کرد.
اپل گفت که هیچ یک از این ویژگیها امنیت ارتباطات خصوصی را به خطر نمیاندازد یا به پلیس اطلاع میدهد.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.