کمیسر اطلاعات به شرکت‌ها درباره فناوری‌های «تحلیل احساسی» هشدار می‌دهد | بیومتریک

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

کمیسر اطلاعات به شرکت‌ها هشدار داده است که به دلیل ماهیت «شبه‌علمی» این رشته، از فناوری‌های «تحلیل احساسی» دوری کنند یا با جریمه‌های نقدی مواجه شوند.

استفان بونر، معاون کمیسر، گفت: این اولین بار است که تنظیم کننده هشداری عمومی در مورد ناکارآمدی یک فناوری جدید صادر می کند، اما این هشداری است که با آسیب هایی که ممکن است در صورت اتخاذ تصمیمات معنادار بر اساس داده های بی معنی شرکت ها ایجاد شود، توجیه می شود.

او گفت: “سرمایه گذاری و مشارکت زیادی در مورد تلاش های بیومتریک برای تشخیص احساسات وجود دارد.” چنین فناوری‌هایی سعی می‌کنند با استفاده از داده‌هایی مانند براقی پوست افراد، یا «عبارات خرد» زودگذر در چهره‌شان، اطلاعاتی را درباره حالات ذهنی استنتاج کنند.

بونر گفت: «متاسفانه، به نظر نمی رسد که این فناوری ها توسط علم پشتیبانی شوند. این کاملاً نگران‌کننده است، زیرا ما از تعداد کمی از سازمان‌ها آگاه هستیم که به دنبال این فناوری‌ها به‌عنوان راه‌های ممکن برای تصمیم‌گیری‌های بسیار مهم هستند: شناسایی اینکه آیا افراد ممکن است کلاهبردار باشند یا اینکه آیا متقاضیان شغل شایسته دریافت این نقش هستند. و به نظر نمی رسد که اینها کار کنند.»

بونر گفت: استفاده از فناوری تحلیل احساسی به خودی خود یک مشکل نیست – اما تلقی کردن با آن چیزی فراتر از سرگرمی است. «کاربردهای زیادی وجود دارد که موارد لبه‌ای خوب و ملایم هستند… اگر مهمانی هالووین دارید و می‌خواهید اندازه بگیرید که چه کسی در مهمانی بیشتر می‌ترسد، این یک فناوری جالب جالب است. این یک تولید کننده اعداد تصادفی گران قیمت است، اما هنوز هم می تواند سرگرم کننده باشد.

اما اگر از این برای تصمیم‌گیری‌های مهم در مورد افراد استفاده می‌کنید – برای تصمیم‌گیری در مورد اینکه آیا آنها مستحق یک فرصت هستند یا نوعی منفعت، یا انتخاب افرادی که سطح آسیب یا تحقیق را دریافت می‌کنند، هر یک از آن نوع مکانیسم‌ها … ما به سازمان هایی که این کار را انجام می دهند توجه بسیار دقیقی خواهیم داشت. آنچه ما در اینجا مطرح می کنیم بسیار اساسی تر از یک مسئله حفاظت از داده است. این واقعیت که آنها همچنین ممکن است حقوق مردم را زیر پا بگذارند و قوانین ما را زیر پا بگذارند، قطعاً دلیل توجه ما به آنها است، اما آنها کار نمی کنند.

راه‌های زیادی وجود دارد که دانشمندان نزدیک به این موضوع آن را رد می‌کنند. من فکر می کنم “هوکوم” را شنیده ایم، “نیمه پخته” را شنیده ایم، “علم جعلی” را شنیده ایم. این یک احتمال وسوسه انگیز است: اگر می توانستیم در سر دیگران ببینیم. اما وقتی مردم ادعاهای خارق‌العاده‌ای را با شواهد کم یا بدون هیچ مدرکی مطرح می‌کنند، می‌توانیم به آن توجه کنیم.»

تلاش برای توسعه “هوش مصنوعی احساسی” یکی از چهار موضوعی است که ICO در مطالعه آینده فناوری های بیومتریک شناسایی کرده است. برخی از آنها مسائل نظارتی ساده ای هستند و شرکت هایی که فناوری های مشابهی را توسعه می دهند خواستار شفافیت بیشتر در مورد قوانین حفاظت از داده ها هستند.

اما برخی دیگر اساسی‌تر هستند: تنظیم‌کننده هشدار داده است که وقتی فناوری‌هایی مانند ردیابی نگاه یا تشخیص اثر انگشت «می‌توانند توسط دوربینی در فاصله‌ای دور برای جمع‌آوری داده‌های قابل تأیید روی یک فرد بدون تماس فیزیکی با هیچ‌کسی به کار گرفته شوند، اعمال قانون حفاظت از داده‌ها دشوار است. سیستم مورد نیاز است. جمع آوری رضایت، مثلاً از هر مسافری که از یک ایستگاه عبور می کند، غیرممکن است.

در بهار 2023، رگولاتور دستورالعمل‌هایی را درباره نحوه استفاده از فناوری‌های بیومتریک، از جمله تشخیص چهره، اثر انگشت و صدا منتشر خواهد کرد. این منطقه به ویژه حساس است، زیرا “داده های بیومتریک منحصر به فرد است و تغییر آن در صورت گم شدن، سرقت یا استفاده نامناسب دشوار یا غیرممکن است”.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …