وقالت إيان راسل ، التي أخذت ابنتها مولي البالغة من العمر 14 عامًا بشكل مأساوي حياتها في عام 2017 ، إنه من المذهل أن تستهدف خوارزميات وسائل التواصل الاجتماعي الصغار الضعفاء
لقد أعرب أبي مراهق في حياتها بعد تعرضه لمواقع التواصل الاجتماعي الخطرة عن رعبه أن المحتوى المماثل لا يزال متاحًا “على نطاق صناعي”.
وقال إيان راسل إنه كان “مذهلاً” حيث اتهمت دراسة جديدة تيخوك و Instagram بوضع حياة الشباب بنشاط. دعا الناشط إيان ، الذي توفيت ابنته مولي البالغة من العمر 14 عامًا في عام 2017 ، كير ستارمر إلى تعزيز قوانين السلامة عبر الإنترنت.
تم التوصية بالبحث الذي أجرته مؤسسة مولي روز – التي أنشأت في ذاكرتها – منشورات حول الاكتئاب والانتحار والضرر الذاتي للحسابات التي تم افتتاحها كفتاة تبلغ من العمر 15 عامًا. يزعم التقرير أن المراهقين الذين يتفاعلون مع الانتحار والإيذاء الذاتي والاكتئاب يواجهون استهداف “تسونامي من المحتوى الضار”.
اقرأ المزيد: ضغط وزير العمل على طلب أبي نيل كينوك في تبادل التلفزيون المحرجاقرأ المزيد: Nigel Farage يجعل “خطأ العلم البريطاني” على قميص الإصلاح كرة القدم – “محرج”
وقالت 97 ٪ من بكرات Instagram و 96 ٪ من مقاطع فيديو Tiktok الموصى بها لهؤلاء الشباب تم العثور عليها ضارة. قال السيد راسل إن منظم OFCOM يجب أن يتخذ إجراءات أقوى لمنع الأطفال من الوصول إلى المواد الخطرة.
قال: “إنه أمر مذهل بعد ثماني سنوات من وفاة مولي الضارة بشكل لا يصدق ، واعاقة الذات والاكتئاب كما رأت ، لا يزال منتشرة عبر وسائل التواصل الاجتماعي. لا تتطابق رموز سلامة الطفل الحديثة في OFCOM مع النطاق الهائل للضرر الذي يقترح للمستخدمين المعرضين للخطر ولا يذكر في نهاية المطاف لمنع المزيد من الوفيات مثل مولي”.
وفي رسالة إلى رئيس الوزراء ، قال: “لأكثر من عام ، حدث هذا الضرر الذي يمكن الوقاية منه بالكامل على ساعة رئيس الوزراء وحيث كان Ofcom خجولًا ، لقد حان الوقت لكي يكون قويًا وتقديم التشريعات المعززة والمنقذة للحياة دون تأخير”.
وجدت أبحاث المؤسسة أن 55 ٪ من المنشورات الضارة الموصى بها على صفحة Tiktok بالنسبة لك تحتوي على إشارات إلى الانتحار والانعطاف على إيذاء الذات ، في حين أشار 16 ٪ إلى طرق الانتحار.
قال تقريرها إن أحد مقاطع الفيديو من كل عشرة مقاطع فيديو ضارة على صفحة Tiktok الخاصة بك قد أحببت ما لا يقل عن مليون مرة. وعلى Instagram بكرات واحدة من كل خمسة مقاطع فيديو موصى بها ضارة ، كانت تحب أكثر من 250،000 مرة.
في عام 2022 ، وجد الطبيب الشرعي أن وفاة مولي كانت “فعلًا من الأذى الذاتي يعاني من الاكتئاب والآثار السلبية للمحتوى عبر الإنترنت”. أخبرت إيان تحقيقًا أن ابنته وجدت نفسها في “أرقى العوالم” على Instagram و Pinterest.
وقال آندي بوروز ، الرئيس التنفيذي لمؤسسة مولي روز: “تستمر الخوارزميات الضارة في قصف المراهقين بمستويات مروعة من المحتوى الضار ، وعلى المنصات الأكثر شعبية للشباب ، يمكن أن يحدث هذا على نطاق صناعي.
“إنه لأمر مروع أنه في العامين منذ أن أجرينا آخر مرة هذا البحث ، لم يتم معالجة حجم الضرر بشكل صحيح ، وفي Tiktok تزداد سوء المخاطر”.
جاء ذلك كتقرير صادر عن مفوض الأطفال ، السيدة راشيل دي سوزا ، أن نسبة الأطفال يقولون إنهم شاهدوا المواد الإباحية عبر الإنترنت قد ارتفعت في العامين الماضيين.
قالت السيدة راشيل إن أبحاثها تظهر أن المحتوى الضار يصل إلى الأطفال من خلال خوارزميات خطيرة ، بدلاً من البحث عنها. ووصفت المحتوى الذي يرى الشباب “عنيفًا ، متطرفًا ومتحللًا” وغير قانوني في كثير من الأحيان ، وقالت إن نتائج مكتبها يجب أن تعتبر “لقطة لما يبدو عليه قاع الصخور”.
قال أكثر من نصف (58 ٪) من المجيبين في الاستطلاع إنهم ، كأطفال ، شاهدوا المواد الإباحية التي تنطوي على الخنق ، بينما أبلغ 44 ٪ عن رؤية تصوير للاغتصاب. وجد التقرير ، استنادًا إلى ردود من 1020 شخصًا تتراوح أعمارهم بين 16 و 21 عامًا ، أن أربعة من كل 10 مستجيبين شعرن بأن الفتيات “مقتنعون” بممارسة الجنس حتى لو لم يقلوا في البداية.
وقال إن الشباب الذين شاهدوا المواد الإباحية كانوا أكثر عرضة للتفكير بهذه الطريقة. وقالت السيدة راشيل: “يجب أن يكون هذا التقرير بمثابة خط في الرمال. النتائج التي تحددها مدى تحتاج صناعة التكنولوجيا إلى تغيير منصاتهم للحفاظ على سلامة الأطفال.
“خذ ، على سبيل المثال ، العدد الهائل من الأطفال الذين يرون المواد الإباحية عن طريق الصدفة. هذا يخبرنا كم من المشكلة حول تصميم المنصات والخوارزميات وأنظمة التوصية التي تضع محتوى ضارًا أمام الأطفال الذين لم يبحثوا عنها أبدًا.”
تم الاتصال بـ Tiktok و Meta ، التي تمتلك Instagram ، للتعليق.
اقرأ المزيد: انضم إلى مجموعة Mirror Politics WhatsApp للحصول على آخر التحديثات من Westminster