پس از تصاحب ایلان ماسک، توییتر پلتفرم را بمباران کرد | توییتر

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

توییتر پس از تسلط ایلان ماسک، تحت تاثیر یک کمپین ترولینگ هماهنگ قرار گرفت و بیش از 50000 توییت از 300 حساب کاربری این پلتفرم را با محتوای نفرت انگیز بمباران کردند.

این پلتفرم رسانه اجتماعی گفت که هدف آن تلاشی است تا کاربران فکر کنند توییتر سیاست های محتوای خود را پس از خرید هفته گذشته به قیمت 44 میلیارد دلار (38 میلیارد پوند) توسط ثروتمندترین مرد جهان کاهش داده یا تضعیف کرده است.

رئیس امنیت و یکپارچگی توییتر گفت که مدیران سایت، سیاست‌های محتوایی را تغییر نداده‌اند، اما تحت «تلاش سازمان‌یافته‌ای قرار گرفته‌اند تا مردم فکر کنند ما تغییر داده‌ایم».

یوئل راث در یک تاپیک توییتری که روز یکشنبه منتشر شد، گفت که این شرکت تعداد زیادی توییت ارسال شده توسط تعداد کمی از حساب‌ها را مشاهده کرده است که حاوی توهین‌ها و دیگر عبارات تحقیرآمیز است. برای نشان دادن مقیاس این حمله، او گفت که بیش از 50000 توییت که مکرراً از یک توهین نامشخص استفاده می‌کردند، تنها از 300 حساب کاربری منتشر شده بود.

راث گفت که بیشتر این حساب‌ها «غیراصیل» بودند و کاربران درگیر ممنوع شده بودند.

او نوشت: «ما اقدامی برای ممنوع کردن کاربران درگیر در این کمپین ترولینگ انجام داده‌ایم – و در روزهای آینده به کار خود برای رفع این مشکل ادامه می‌دهیم تا توییتر را برای همه ایمن و پذیرا کنیم.»

قوانین ما رفتار نفرت انگیز را ممنوع می کند. این شامل هدف قرار دادن افرادی با مطالب و توهین‌های غیرانسانی است.

این به این معنی نیست که ما لیستی از کلماتی داریم که همیشه ممنوع هستند. زمینه اهمیت دارد. برای مثال، خط‌مشی‌های ما برای محافظت از گفتار بازیابی شده نوشته شده‌اند. https://t.co/QopEaTwxaX

– یوئل راث (@yoyoel) 30 اکتبر 2022

موضوع راث نیز به پستی از ماسک، که هفته گذشته این پلتفرم را خریداری کرد که در آن مدیر عامل تسلا گفت: “ما هنوز هیچ تغییری در سیاست های تعدیل محتوای توییتر ایجاد نکرده ایم.”

تصاحب ماسک منجر به ابراز نگرانی گسترده از این موضوع شده است که این مولتی میلیاردر، که خود را “مطلق آزادی بیان” اعتراف می کند، سیاست های محتوایی را کاهش دهد و حساب های ممنوعه ای مانند حساب های تحت کنترل دونالد ترامپ، رئیس جمهور سابق آمریکا و کیتی هاپکینز، مفسر سیاسی راستگرای بریتانیایی را بازگرداند. .

شوندا رایمز، تهیه‌کننده تلویزیون Grey’s Anatomy و Bridgerton، به نظر می‌رسید که روز شنبه از این پلتفرم کناره‌گیری کرد و به ۱.۹ میلیون دنبال‌کننده‌اش گفت که «برای هر چیزی که ایلان برنامه‌ریزی کرده است، دور نمی‌ماند».

برای هر چیزی که ایلان برنامه‌ریزی کرده است، دور و بر نمی‌گردیم. خدا حافظ.

– شوندا رایمز (@shondarhimes) 29 اکتبر 2022

ماسک علاوه بر تاکید بر اینکه هیچ تغییری در سیاست‌های محتوای توییتر ایجاد نشده است، از تشکیل «شورای تعدیل محتوا» خبر داده است. او گفت که بدنه جدید «دیدگاه‌های بسیار متنوع» را گرد هم می‌آورد و هیچ تصمیمی در مورد خط‌مشی محتوا یا بازگرداندن حساب‌ها تا زمان تشکیل شورا اتخاذ نخواهد شد.

ماسک همچنین اشاره کرده است که توییتر می‌تواند به بخش‌های مختلفی تقسیم شود که در آن کاربران به پست‌های خود رتبه‌بندی می‌دهند و در ردیف‌های آنلاین در فضایی که به‌ویژه در پلتفرم ایجاد شده است، شرکت می‌کنند.

تغییرات پیشنهادی او در تعامل با کاربران توییتر پس از این معامله ظاهر شد. او همچنین از پیشنهاد یک کاربر مبنی بر اینکه این سرویس به حالت‌های مختلف بازی ویدیویی تقسیم می‌شود، از جمله نسخه «بازیکن در مقابل بازیکن» که در آن حساب‌های تأیید شده می‌توانند درگیر درگیری‌های توییتر شوند، حمایت کرد.

این میلیاردر که بیش از 100 میلیون دنبال کننده در این پلتفرم دارد، گفت که کاربران می توانند نسخه ای از توییتر را انتخاب کنند، مانند اینکه فیلمی را بر اساس رتبه بندی محتوای آن انتخاب می کنند.

او نوشت: «اینکه بتوانید نسخه‌ای از توییتر را که می‌خواهید انتخاب کنید، احتمالاً بهتر است، همان‌طور که برای رتبه‌بندی بلوغ فیلم‌ها بهتر است.»

ماسک اضافه کرد که رتبه‌بندی توییت کاربر را می‌توان خود انتخاب کرد و سپس با بازخورد کاربر تغییر داد.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …