وفقاً لدراسة حديثة، تواجه بعض أكبر منصات التواصل الاجتماعي تحديات في اكتشاف وإزالة المحتوى الخطير الذي يشمل الانتحار وإيذاء النفس. تُظهر البيانات أن "بنترست" و"تيك توك" كانا الموقعين الوحيدين اللذين نجحا في اكتشاف وإزالة أكثر من 95% من هذا المحتوى، وذلك من بين أكثر من 12 مليون قرار بتعديل المحتوى اتخذته ست من أكبر المنصات.
المنصات الأربع الأخرى المذكورة في التقرير هي" فيسبوك"، "إنستغرام"، "إكس" و"سناب شات"، حيث وجدت مؤسسة Molly Rose، وهي منظمة خيرية مقرّها المملكة تهدف إلى الوقاية من الانتحار وموجهة خاصة نحو الشباب دون سن الـ25، أن استجابتها لمثل هذا المحتوى كانت غير متسقة وغير متساوية وغير مناسبة للغرض.
وأشارت المؤسسة إلى أن "إنستغرام" و"فيسبوك" اللذين يتبعان لشركة "ميتا"، كانا مسؤولين عن 1% فقط من جميع محتوى الانتحار وإيذاء النفس الذي اكتُشف، بينما كان "إكس" مسؤولاً عن 700 قرار فقط بشأن المحتوى.
تُحذّر المؤسسة الآن من أن قانون السلامة عبر الإنترنت الحالي لا يكفي لمعالجة ما تعتبره “إخفاقات منهجية واضحة” في نهج تعديل المحتوى لدى شركات وسائل التواصل الاجتماعي. وتُظهر الدراسة أن المواقع تفشل روتينياً في اكتشاف المحتوى الضار، خاصةً في الأجزاء الأكثر خطورة من خدماتها. على سبيل المثال، تم اكتشاف مقطع فيديو واحد فقط من كل 50 منشوراً للانتحار وإيذاء النفس بواسطة "إنستغرام"، على الرغم من أن ميزة الفيديو القصيرة "ريلز" Reels تمثل الآن نصف الوقت الذي يقضيه المستخدمون على التطبيق.