فیس بوک در تست تشخیص سخنان خشونت آمیز نفرت انگیز در تبلیغات جهانی شکست خورد – دوباره | اخبار آمریکا

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،

آزمایش نمی توانست خیلی ساده تر باشد – و فیس بوک همچنان شکست خورد.

فیس‌بوک و شرکت مادرش متا بار دیگر در آزمایشی مبنی بر اینکه چقدر می‌توانند سخنان مشروح خشونت آمیز خشونت‌آمیز را در تبلیغات ارسال شده توسط گروه‌های غیرانتفاعی Global Witness و Foxglove به این پلتفرم شناسایی کنند، شکست خوردند.

پیام‌های نفرت‌انگیز بر اتیوپی متمرکز بودند، جایی که اسناد داخلی به دست آمده توسط افشاگر فرانسیس هاگن نشان می‌داد که اعتدال بی‌موثر فیس‌بوک «به معنای واقعی کلمه به خشونت قومی دامن می‌زند»، همانطور که او در شهادتش در کنگره سال 2021 گفت. در ماه مارس، Global Witness آزمایشی مشابه با سخنان نفرت پراکنی در میانمار انجام داد که فیس بوک نیز نتوانست آن را تشخیص دهد.

این گروه 12 آگهی متنی ایجاد کرد که از سخنان تنفرآمیز غیرانسانی برای فراخوانی برای قتل افراد متعلق به هر یک از سه گروه قومی اصلی اتیوپی – آمهارا، اورومو و تیگرایان استفاده می‌کرد. سیستم های فیس بوک تبلیغات را برای انتشار تایید کردند، درست مانند تبلیغات میانمار. این تبلیغات در واقع در فیس بوک منتشر نشده است.

با این حال، این بار، گروه متا را از تخلفات کشف نشده مطلع کرد. این شرکت گفت که تبلیغات نباید تایید می شد و به کارهایی که برای جلب محتوای نفرت انگیز در پلتفرم های خود انجام داده اشاره کرد.

یک هفته پس از شنیدن سخنان متا، گلوبال ویتنس دو آگهی دیگر را برای تأیید ارسال کرد، دوباره با سخنان مشوق نفرت پراکنی. این دو آگهی که به زبان آمهری، پرکاربردترین زبان در اتیوپی نوشته شده بودند، تأیید شدند.

متا گفت که این تبلیغات نباید تایید می شد.

این شرکت در بیانیه ای ایمیلی گفت: «ما سرمایه گذاری زیادی در اقدامات ایمنی در اتیوپی انجام داده‌ایم، کارکنان بیشتری با تخصص محلی اضافه کرده‌ایم و ظرفیت خود را برای دریافت محتوای نفرت‌انگیز و تحریک‌آمیز به رایج‌ترین زبان‌ها، از جمله آمهری، افزایش داده‌ایم.» و مردم هنوز هم می توانند اشتباه کنند. این بیانیه مشابه اظهاراتی بود که Global Witness دریافت کرد.

رزی شارپ، یکی از مبارزان در Global Witness، گفت: «ما بدترین مواردی را که می‌توانستیم فکر کنیم، انتخاب کردیم. «آنهایی که باید برای فیس بوک راحت ترین تشخیص باشند. آنها زبان رمزی نبودند. آنها سوت سگ نبودند. آنها اظهارات صریحی داشتند که می‌گفتند این نوع آدم‌ها انسان نیستند یا باید از گرسنگی بمیرند.»

متا به طور مداوم از بیان تعداد ناظر محتوا در کشورهایی که انگلیسی زبان اصلی نیست، خودداری کرده است. این شامل ناظران در اتیوپی، میانمار و سایر مناطقی می شود که مطالب ارسال شده در پلتفرم های شرکت با خشونت در دنیای واقعی مرتبط است.

در ماه نوامبر، متا گفت که پست ابی احمد، نخست وزیر اتیوپی را حذف کرده است که از شهروندان خواسته بود قیام کنند و نیروهای رقیب تیگری را که پایتخت این کشور را تهدید می کردند، «دفن کنند».

احمد در پستی که از آن زمان حذف شد، گفت: «وظیفه مردن برای اتیوپی متعلق به همه ماست». وی از شهروندان خواست «با در دست داشتن هر سلاح و ظرفیتی» بسیج شوند.

احمد همچنان به پست های خود در این پلتفرم ادامه داده است، جایی که او 4.1 میلیون دنبال کننده دارد. پس از آنکه نخست وزیر در اظهاراتی که در ژوئیه 2021 انجام شد، نیروهای تیگری را به عنوان «سرطان» و «علف هرز» توصیف کرد، ایالات متحده و دیگران به اتیوپی درباره «لفاظی غیرانسانی» هشدار دادند.

رزا کرلینگ، مدیر Foxglove، یک سازمان غیرانتفاعی حقوقی مستقر در لندن، می‌گوید: «وقتی تبلیغاتی که خواستار نسل‌کشی در اتیوپی می‌شوند به طور مکرر از شبکه فیس‌بوک عبور می‌کنند – حتی پس از اینکه مشکل با فیس‌بوک علامت‌گذاری شود – تنها یک نتیجه ممکن وجود دارد: هیچ‌کس در خانه نیست. که در تحقیقات خود با Global Witness همکاری کرد. سال ها پس از نسل کشی میانمار، واضح است که فیس بوک درس خود را نگرفته است.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …