شرکت‌های فناوری می‌گویند قوانینی برای محافظت از ما در برابر هوش مصنوعی بد، «نوآوری» را محدود می‌کند. خوب، خوب | جان ناتون

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

دبلیودر ماه مه 2014، دادگاه دادگستری اروپا یک حکم مهم صادر کرد که شهروندان اروپایی این حق را دارند که از موتورهای جستجو برای حذف نتایج جستجوی مرتبط با مطالبی که به طور قانونی در وب‌سایت‌های شخص ثالث ارسال شده بودند، درخواست کنند. این به طور عمومی اما گمراه کننده به عنوان “حق فراموش شدن” توصیف شد. این واقعاً حق بود که برخی مطالب منتشر شده در مورد شاکی توسط موتورهای جستجو حذف شوند، که گوگل به مراتب غالب ترین آنها بود. یا، به بیان خام، حقی که گوگل آن را پیدا نمی کند.

صبح روزی که حکم صادر شد، با یکی از کارمندان نسبتاً ارشد گوگل که اتفاقاً او را می شناختم تماس تلفنی داشتم. از تماس او مشخص بود که این شرکت در کمین حکم قرار گرفته بود – تیم حقوقی گران قیمت آن به وضوح انتظارش را نداشتند. اما همچنین واضح بود که روسای آمریکایی او از وقاحت یک نهاد اروپایی صرف در صدور چنین حکمی خشمگین شده بودند. و هنگامی که به آرامی نشان دادم که آن را قضاوتی معقول می‌دانم، با غم و اندوهی پرانرژی برخورد کردم، که اصل آن این بود که مشکل اروپایی‌ها این است که آنها «دشمن با نوآوری» هستند. در آن لحظه مکالمه به پایان رسید و دیگر خبری از او نشد.

چیزی که این موضوع را به ذهن متبادر می کند، واکنش شرکت های فناوری به پیش نویس لایحه اتحادیه اروپا است که ماه گذشته منتشر شد که پس از تبدیل شدن به قانون در مدت دو سال آینده، این امکان را برای افرادی که توسط نرم افزار آسیب دیده اند می توانند از شرکت های تولید کننده شکایت کنند. و آن را مستقر کنید. لایحه جدید که دستورالعمل مسئولیت هوش مصنوعی نام دارد، مکمل قانون هوش مصنوعی اتحادیه اروپا است که قرار است در همان زمان به قانون اتحادیه اروپا تبدیل شود. هدف این قوانین جلوگیری از انتشار سیستم‌های خطرناک توسط شرکت‌های فناوری است، برای مثال: الگوریتم‌هایی که اطلاعات نادرست را تقویت می‌کنند و کودکان را با محتوای مضر هدف قرار می‌دهند. سیستم های تشخیص چهره که اغلب تبعیض آمیز هستند. سیستم‌های هوش مصنوعی پیش‌بینی‌کننده که برای تأیید یا رد وام‌ها یا هدایت استراتژی‌های پلیس محلی و غیره استفاده می‌شوند، برای اقلیت‌ها دقت کمتری دارند. به عبارت دیگر، فناوری هایی که در حال حاضر تقریباً به طور کامل کنترل نشده اند.

قانون هوش مصنوعی، بررسی‌های اضافی را برای استفاده‌های پرخطر از هوش مصنوعی که بیشترین پتانسیل آسیب رساندن به مردم را دارند، به ویژه در زمینه‌هایی مانند پلیس، استخدام و مراقبت‌های بهداشتی الزامی می‌کند. لایحه بدهی جدید، MIT می گوید بررسی فناوری ژورنال، «به مردم و شرکت‌ها این حق را می‌دهد که پس از آسیب‌دیدگی توسط یک سیستم هوش مصنوعی برای جبران خسارت شکایت کنند. هدف این است که توسعه‌دهندگان، تولیدکنندگان و کاربران فناوری‌ها پاسخگو باشند و از آنها بخواهیم توضیح دهند که سیستم‌های هوش مصنوعی چگونه ساخته و آموزش داده شده‌اند. شرکت‌های فناوری که از قوانین پیروی نمی‌کنند، در معرض اقدامات گروهی در سراسر اتحادیه اروپا هستند.»

در همین راستا، انجمن صنعت رایانه و ارتباطات (CCIA) ظاهر می‌شود، لباس لابی‌گری که نماینده شرکت‌های فناوری در بروکسل است. نامه آن به دو کمیسر اروپایی مسئول این دو اقدام بلافاصله این نگرانی را ایجاد می‌کند که تحمیل مسئولیت اکید بر شرکت‌های فناوری «بی‌تناسب و ناسازگار با ویژگی‌های نرم‌افزار خواهد بود». و البته، می‌تواند «تأثیر سردکننده‌ای» بر «نوآوری» داشته باشد.

آه بله. این همان نوآوری است که منجر به رسوایی کمبریج آنالیتیکا و مداخله آنلاین روسیه در انتخابات ریاست جمهوری آمریکا در سال 2016 و همه پرسی برگزیت بریتانیا شد و امکان پخش مستقیم تیراندازی های جمعی را فراهم کرد. همان نوآوری در پشت موتورهای توصیه که افراط گرایان را رادیکال کرد و «10 پین افسردگی که ممکن است دوست داشته باشید» را به یک نوجوان مشکل دار که متعاقباً به زندگی خود پایان داد، هدایت کرد.

تصمیم گیری در مورد اینکه کدام یک از دو ادعای مطرح شده توسط CCIA – که مسئولیت اکید برای نرم افزار “مناسب است” یا “نوآوری” مشخصه تعیین کننده صنعت است – مضحک تر است دشوار است. برای بیش از 50 سال، صنعت فناوری به هیچ صنعت دیگری دسترسی ندارد، یعنی از مسئولیت قانونی در قبال کاستی‌ها و آسیب‌پذیری‌های بی‌شمار محصول اصلی یا آسیب‌هایی که این نقص‌ها ایجاد می‌کند، اجتناب می‌کند.

با این حال، نکته قابل توجه‌تر این است که چگونه ادعای شرکت‌های فناوری مبنی بر اینکه تنها استاد «نوآوری» هستند، برای مدت طولانی مورد توجه قرار گرفته است. اما اکنون دو وکیل برجسته رقابت، آریل ازراچی و موریس استاک، این شرکت ها را بلوف می دانند. در یک کتاب جدید قابل توجه، چگونه بارون های فناوری بزرگ نوآوری را شکست می دهند – و چگونه می توان پاسخ دادآنها توضیح می‌دهند که چگونه شرکت‌های فناوری نوآوری را تحمل می‌کنند که با منافع خودشان همسو باشد. آن‌ها نشان می‌دهند که چگونه شرکت‌های فناوری در سرکوب نوآوری‌های مخرب یا تهدیدآمیز، چه از طریق خرید پیشگیرانه یا کپی‌برداری عریان، بی‌رحمانه عمل می‌کنند، و اینکه تسلط آنها بر موتورهای جستجو و پلت‌فرم‌های رسانه‌های اجتماعی، دید نوآوری‌های امیدوارکننده‌ای را که ممکن است از نظر رقابتی یا اجتماعی مفید باشند، محدود می‌کند. به عنوان پادزهری برای پف کردن فناوری، شکست دادن این کتاب دشوار خواهد بود. خواندن آن برای همه در Ofcom، Competition and Markets Authority و DCMS باید الزامی باشد. و از این پس “نوآوری برای چه کسی؟” باید اولین سوال برای هر تقویت کننده فناوری باشد که در مورد نوآوری به شما سخنرانی می کند.

چیزی که من خوانده ام

وب زمان
مشکل خاردار نگه داشتن زمان اینترنت بسیار جذاب است اهل نیویورک مقاله ای از نیت هاپر در مورد نابغه ای که سال ها پیش سیستم نرم افزاری مخفیانه ای را ایجاد کرد که ساعت های شبکه را همگام می کند.

مورد اعتماد قرار گرفته است
Project Fear 3.0 یک پست وبلاگی خوب توسط آدام توز در مورد انتقاد از دولت فعلی محافظه‌کاران است.

پیشرفت تکنولوژی
Ascension مقاله ای متفکرانه توسط درو آستین در مورد چگونگی تغییر رابطه ما با فناوری دیجیتال در دوره 2019-2022 است.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …