اگر نیک کلگ بخواهد متا را اصلاح کند، باید مشکل آن با حقوق بشر را حل کند | فردریک کالتیونر

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

دبلیوزمانی که نیک کلگ، معاون سابق نخست وزیر بریتانیا در سال 2018 به فیس بوک پیوست، این شرکت در تعدادی رسوایی غوطه ور شد. کمبریج آنالیتیکا در حال جمع آوری اطلاعات شخصی از پروفایل های فیس بوک بود. کارشناسان حقوق بشر سازمان ملل گفتند که این پلتفرم نقشی در تسهیل پاکسازی قومی روهینگیا در میانمار ایفا کرده است. سیاست های آن در جریان انتخابات ریاست جمهوری 2016 آمریکا مورد انتقاد قرار گرفته بود. اکنون کلگ به عنوان رئیس شرکت در امور جهانی نقش مهمی را ایفا کرده است. آیا او می‌تواند با مشکلات ظاهراً بی‌پایان نحوه کار فیس‌بوک – که اخیراً به نام متا تغییر نام داد – مقابله کند؟

خوب یا بد، متا و گوگل به زیرساخت حوزه عمومی دیجیتال تبدیل شده اند. در فیس‌بوک، مردم به اخبار دسترسی پیدا می‌کنند، جنبش‌های اجتماعی رشد می‌کنند، نقض حقوق بشر مستند می‌شود و سیاستمداران با مؤسسات درگیر می‌شوند. مشکل اینجاست هیچ شرکتی نباید اینقدر قدرت در حوزه عمومی جهانی داشته باشد.

مدل کسب و کار متا مبتنی بر نظارت فراگیر است که اساساً با حقوق بشر ناسازگار است. ردیابی و نمایه سازی کاربران به حریم خصوصی آنها نفوذ می کند و الگوریتم هایی را تغذیه می کند که محتوای تفرقه انگیز و هیجان انگیز را ترویج و تقویت می کند. مطالعات نشان می‌دهد که چنین محتوایی تعامل بیشتری را به همراه دارد و به نوبه خود سود بیشتری به دست می‌آورد. آسیب ها و خطراتی که فیس بوک ایجاد می کند به طور نابرابر توزیع می شود: آزار و اذیت آنلاین ممکن است برای هر کسی اتفاق بیفتد، اما تحقیقات نشان می دهد که به طور نامتناسبی بر افرادی که به دلیل جنسیت، نژاد، قومیت، مذهب یا هویت خود به حاشیه رانده شده اند تأثیر می گذارد. و در حالی که اطلاعات نادرست یک پدیده جهانی است، اثرات آن به ویژه در دموکراسی های شکننده شدید است.

با وجود عنوان جدید، کلگ به تنهایی قادر به رفع این مشکلات نخواهد بود. اما چندین کار وجود دارد که او باید برای محافظت از حقوق بشر کاربران آن انجام دهد. برای شروع، او باید به سخنان فعالان حقوق بشر گوش دهد. آنها برای سال‌ها توصیه کرده‌اند که فیس‌بوک قبل از گسترش در کشورهای جدید، معرفی محصولات جدید یا ایجاد تغییرات در خدمات خود، بررسی حقوق بشر را انجام دهد. آن‌ها همچنین به این شرکت توصیه کرده‌اند در هرجایی که مردم از پلتفرم‌های آن استفاده می‌کنند، بیشتر روی تعدیل محتوا سرمایه‌گذاری کند تا به طور موثر به خطرات حقوق بشر پاسخ دهد.

احتمال آسیب رساندن سخنرانی آنلاین، همانطور که در میانمار انجام شد، به طور جدایی ناپذیری با نابرابری و تبعیض موجود در یک جامعه مرتبط است. متا نیاز به سرمایه گذاری قابل توجهی در تخصص محلی دارد که بتواند این مشکلات را روشن کند. در طول دهه گذشته، فیس بوک بدون درک کامل جوامع و محیط های سیاسی که در آن فعالیت می کند، برای تصرف بازارها هجوم آورده است. این برنامه کشورهای آفریقا، آسیا و آمریکای لاتین را هدف قرار داده است و یک نسخه فیس بوک محور از اینترنت را تبلیغ می کند. برای دسترسی رایگان به فیس بوک و تعداد محدودی از وب سایت های تایید شده، با شرکت های مخابراتی وارد مشارکت شده است. رقبایی مانند واتس اپ و اینستاگرام را خریده است. این استراتژی عواقب مخربی داشته است و به فیس بوک اجازه می دهد تا به بازیگر غالب در اکوسیستم های اطلاعاتی تبدیل شود.

همچنین برای Meta ضروری است که در نحوه تعدیل محتوا، سازگارتر، شفاف‌تر و پاسخگوتر باشد. در اینجا، سابقه ای وجود دارد: اصول سانتا کلارا در مورد شفافیت و مسئولیت پذیری در تعدیل محتوا، که توسط جامعه مدنی توسعه یافته و توسط فیس بوک تأیید شده (اگرچه اجرا نشده است)، استانداردهایی را برای هدایت این تلاش ها ارائه می کند. از جمله، آنها خواستار قوانین و خط‌مشی‌های قابل فهمی هستند که باید برای مردم سراسر جهان به زبان‌هایی که به آن صحبت می‌کنند قابل دسترسی باشد، و به آن‌ها این امکان را می‌دهد که به‌طور معنادار تصمیم‌های حذف یا ترک محتوا را درخواست کنند.

متا همچنین باید در مورد الگوریتم هایی که آنچه مردم در سایت هایش می بینند را شکل می دهند شفاف تر باشد. این شرکت باید نقشی را که الگوریتم‌ها در هدایت کاربران به سمت اطلاعات نادرست مضر بازی می‌کنند، بپردازد و به کاربران اختیار بیشتری برای شکل دادن به تجربیات آنلاین خود بدهد. سیستم Xcheck فیس بوک افراد مشهور، سیاستمداران و سایر کاربران برجسته را از قوانینی که برای کاربران عادی اعمال می شود مستثنی کرده است. به جای وضع قوانین متفاوت برای بازیگران قدرتمند، پلتفرم‌های رسانه‌های اجتماعی باید حقوق مردم عادی – به‌ویژه آسیب‌پذیرترین افراد در میان ما را در اولویت قرار دهند.

همانطور که متا در تلاش است تا به “متاور” تبدیل شود، این مشکلات فقط آشکارتر می شوند. محیط‌های دیجیتالی که بر فناوری‌های واقعیت توسعه‌یافته (XR) متکی هستند، مانند واقعیت مجازی و واقعیت افزوده، هنوز در مراحل اولیه توسعه هستند. اما در حال حاضر نشانه هایی وجود دارد که بسیاری از مسائل مشابه در متاورس اعمال خواهند شد. عینک‌های واقعیت مجازی می‌توانند داده‌های کاربر را جمع‌آوری و جمع‌آوری کنند، و برخی از کاربران VR قبلاً شیوع آزار و اذیت آنلاین و سوء استفاده در این تنظیمات را گزارش کرده‌اند.

تا کنون، متا حقوق کاربران خود را در مرکز مدل کسب و کار خود قرار نداده است. انجام این کار به معنای محاسبه روش های نظارتی آن و افزایش چشمگیر منابعی است که برای احترام به حقوق کاربران خود در سطح جهانی اختصاص می دهد. متا به جای تغییر نام تجاری و چرخش به XR، جایی که پتانسیل آسیب به طور تصاعدی رشد می کند، باید مکث کند و توجه خود را به مقابله با مشکلات بسیار ملموسی که در واقعیت کنونی ما ایجاد می کند، هدایت کند. زمان رسیدگی به این موضوع اکنون است.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …