به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
کمیسر اطلاعات به شرکتها هشدار داده است که به دلیل ماهیت «شبهعلمی» این رشته، از فناوریهای «تحلیل احساسی» دوری کنند یا با جریمههای نقدی مواجه شوند.
استفان بونر، معاون کمیسر، گفت: این اولین بار است که تنظیم کننده هشداری عمومی در مورد ناکارآمدی یک فناوری جدید صادر می کند، اما این هشداری است که با آسیب هایی که ممکن است در صورت اتخاذ تصمیمات معنادار بر اساس داده های بی معنی شرکت ها ایجاد شود، توجیه می شود.
او گفت: “سرمایه گذاری و مشارکت زیادی در مورد تلاش های بیومتریک برای تشخیص احساسات وجود دارد.” چنین فناوریهایی سعی میکنند با استفاده از دادههایی مانند براقی پوست افراد، یا «عبارات خرد» زودگذر در چهرهشان، اطلاعاتی را درباره حالات ذهنی استنتاج کنند.
بونر گفت: «متاسفانه، به نظر نمی رسد که این فناوری ها توسط علم پشتیبانی شوند. این کاملاً نگرانکننده است، زیرا ما از تعداد کمی از سازمانها آگاه هستیم که به دنبال این فناوریها بهعنوان راههای ممکن برای تصمیمگیریهای بسیار مهم هستند: شناسایی اینکه آیا افراد ممکن است کلاهبردار باشند یا اینکه آیا متقاضیان شغل شایسته دریافت این نقش هستند. و به نظر نمی رسد که اینها کار کنند.»
بونر گفت: استفاده از فناوری تحلیل احساسی به خودی خود یک مشکل نیست – اما تلقی کردن با آن چیزی فراتر از سرگرمی است. «کاربردهای زیادی وجود دارد که موارد لبهای خوب و ملایم هستند… اگر مهمانی هالووین دارید و میخواهید اندازه بگیرید که چه کسی در مهمانی بیشتر میترسد، این یک فناوری جالب جالب است. این یک تولید کننده اعداد تصادفی گران قیمت است، اما هنوز هم می تواند سرگرم کننده باشد.
اما اگر از این برای تصمیمگیریهای مهم در مورد افراد استفاده میکنید – برای تصمیمگیری در مورد اینکه آیا آنها مستحق یک فرصت هستند یا نوعی منفعت، یا انتخاب افرادی که سطح آسیب یا تحقیق را دریافت میکنند، هر یک از آن نوع مکانیسمها … ما به سازمان هایی که این کار را انجام می دهند توجه بسیار دقیقی خواهیم داشت. آنچه ما در اینجا مطرح می کنیم بسیار اساسی تر از یک مسئله حفاظت از داده است. این واقعیت که آنها همچنین ممکن است حقوق مردم را زیر پا بگذارند و قوانین ما را زیر پا بگذارند، قطعاً دلیل توجه ما به آنها است، اما آنها کار نمی کنند.
راههای زیادی وجود دارد که دانشمندان نزدیک به این موضوع آن را رد میکنند. من فکر می کنم “هوکوم” را شنیده ایم، “نیمه پخته” را شنیده ایم، “علم جعلی” را شنیده ایم. این یک احتمال وسوسه انگیز است: اگر می توانستیم در سر دیگران ببینیم. اما وقتی مردم ادعاهای خارقالعادهای را با شواهد کم یا بدون هیچ مدرکی مطرح میکنند، میتوانیم به آن توجه کنیم.»
تلاش برای توسعه “هوش مصنوعی احساسی” یکی از چهار موضوعی است که ICO در مطالعه آینده فناوری های بیومتریک شناسایی کرده است. برخی از آنها مسائل نظارتی ساده ای هستند و شرکت هایی که فناوری های مشابهی را توسعه می دهند خواستار شفافیت بیشتر در مورد قوانین حفاظت از داده ها هستند.
اما برخی دیگر اساسیتر هستند: تنظیمکننده هشدار داده است که وقتی فناوریهایی مانند ردیابی نگاه یا تشخیص اثر انگشت «میتوانند توسط دوربینی در فاصلهای دور برای جمعآوری دادههای قابل تأیید روی یک فرد بدون تماس فیزیکی با هیچکسی به کار گرفته شوند، اعمال قانون حفاظت از دادهها دشوار است. سیستم مورد نیاز است. جمع آوری رضایت، مثلاً از هر مسافری که از یک ایستگاه عبور می کند، غیرممکن است.
در بهار 2023، رگولاتور دستورالعملهایی را درباره نحوه استفاده از فناوریهای بیومتریک، از جمله تشخیص چهره، اثر انگشت و صدا منتشر خواهد کرد. این منطقه به ویژه حساس است، زیرا “داده های بیومتریک منحصر به فرد است و تغییر آن در صورت گم شدن، سرقت یا استفاده نامناسب دشوار یا غیرممکن است”.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.