به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،
آزمایش نمی توانست خیلی ساده تر باشد – و فیس بوک همچنان شکست خورد.
فیسبوک و شرکت مادرش متا بار دیگر در آزمایشی مبنی بر اینکه چقدر میتوانند سخنان مشروح خشونت آمیز خشونتآمیز را در تبلیغات ارسال شده توسط گروههای غیرانتفاعی Global Witness و Foxglove به این پلتفرم شناسایی کنند، شکست خوردند.
پیامهای نفرتانگیز بر اتیوپی متمرکز بودند، جایی که اسناد داخلی به دست آمده توسط افشاگر فرانسیس هاگن نشان میداد که اعتدال بیموثر فیسبوک «به معنای واقعی کلمه به خشونت قومی دامن میزند»، همانطور که او در شهادتش در کنگره سال 2021 گفت. در ماه مارس، Global Witness آزمایشی مشابه با سخنان نفرت پراکنی در میانمار انجام داد که فیس بوک نیز نتوانست آن را تشخیص دهد.
این گروه 12 آگهی متنی ایجاد کرد که از سخنان تنفرآمیز غیرانسانی برای فراخوانی برای قتل افراد متعلق به هر یک از سه گروه قومی اصلی اتیوپی – آمهارا، اورومو و تیگرایان استفاده میکرد. سیستم های فیس بوک تبلیغات را برای انتشار تایید کردند، درست مانند تبلیغات میانمار. این تبلیغات در واقع در فیس بوک منتشر نشده است.
با این حال، این بار، گروه متا را از تخلفات کشف نشده مطلع کرد. این شرکت گفت که تبلیغات نباید تایید می شد و به کارهایی که برای جلب محتوای نفرت انگیز در پلتفرم های خود انجام داده اشاره کرد.
یک هفته پس از شنیدن سخنان متا، گلوبال ویتنس دو آگهی دیگر را برای تأیید ارسال کرد، دوباره با سخنان مشوق نفرت پراکنی. این دو آگهی که به زبان آمهری، پرکاربردترین زبان در اتیوپی نوشته شده بودند، تأیید شدند.
متا گفت که این تبلیغات نباید تایید می شد.
این شرکت در بیانیه ای ایمیلی گفت: «ما سرمایه گذاری زیادی در اقدامات ایمنی در اتیوپی انجام دادهایم، کارکنان بیشتری با تخصص محلی اضافه کردهایم و ظرفیت خود را برای دریافت محتوای نفرتانگیز و تحریکآمیز به رایجترین زبانها، از جمله آمهری، افزایش دادهایم.» و مردم هنوز هم می توانند اشتباه کنند. این بیانیه مشابه اظهاراتی بود که Global Witness دریافت کرد.
رزی شارپ، یکی از مبارزان در Global Witness، گفت: «ما بدترین مواردی را که میتوانستیم فکر کنیم، انتخاب کردیم. «آنهایی که باید برای فیس بوک راحت ترین تشخیص باشند. آنها زبان رمزی نبودند. آنها سوت سگ نبودند. آنها اظهارات صریحی داشتند که میگفتند این نوع آدمها انسان نیستند یا باید از گرسنگی بمیرند.»
متا به طور مداوم از بیان تعداد ناظر محتوا در کشورهایی که انگلیسی زبان اصلی نیست، خودداری کرده است. این شامل ناظران در اتیوپی، میانمار و سایر مناطقی می شود که مطالب ارسال شده در پلتفرم های شرکت با خشونت در دنیای واقعی مرتبط است.
در ماه نوامبر، متا گفت که پست ابی احمد، نخست وزیر اتیوپی را حذف کرده است که از شهروندان خواسته بود قیام کنند و نیروهای رقیب تیگری را که پایتخت این کشور را تهدید می کردند، «دفن کنند».
احمد در پستی که از آن زمان حذف شد، گفت: «وظیفه مردن برای اتیوپی متعلق به همه ماست». وی از شهروندان خواست «با در دست داشتن هر سلاح و ظرفیتی» بسیج شوند.
احمد همچنان به پست های خود در این پلتفرم ادامه داده است، جایی که او 4.1 میلیون دنبال کننده دارد. پس از آنکه نخست وزیر در اظهاراتی که در ژوئیه 2021 انجام شد، نیروهای تیگری را به عنوان «سرطان» و «علف هرز» توصیف کرد، ایالات متحده و دیگران به اتیوپی درباره «لفاظی غیرانسانی» هشدار دادند.
رزا کرلینگ، مدیر Foxglove، یک سازمان غیرانتفاعی حقوقی مستقر در لندن، میگوید: «وقتی تبلیغاتی که خواستار نسلکشی در اتیوپی میشوند به طور مکرر از شبکه فیسبوک عبور میکنند – حتی پس از اینکه مشکل با فیسبوک علامتگذاری شود – تنها یک نتیجه ممکن وجود دارد: هیچکس در خانه نیست. که در تحقیقات خود با Global Witness همکاری کرد. سال ها پس از نسل کشی میانمار، واضح است که فیس بوک درس خود را نگرفته است.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.