أظهرت الأبحاث اليوم أن الأطفال تعرضوا لوابل من المحتوى المزعج على وسائل التواصل الاجتماعي، بما في ذلك وفاة ليام باين ومقتل تشارلي كيرك.
أظهرت دراسة أن الأطفال تعرضوا لوابل من المحتوى المزعج على وسائل التواصل الاجتماعي، بما في ذلك وفاة ليام باين ومقتل تشارلي كيرك.
وجدت الأبحاث التي أجرتها Internet Matters أن ستة من كل 10 أطفال يتابعون الأخبار على وسائل التواصل الاجتماعي شاهدوا قصة تقلقهم أو تزعجهم في شهر يونيو، بما في ذلك المحتوى المتعلق بالحرب والصراع والعنف والموت وأحداث الأزمات.
وقالت المنظمة غير الربحية إن الخوارزميات تغمر خلاصات الأطفال بمحتوى رسومي لا يريدون رؤيته.
كما أثارت مخاوف بشأن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، حيث قال أكثر من ربع (27٪) الأطفال أنهم صدقوا قصة مزيفة.
وهذه النسبة أكبر بين الأطفال الضعفاء – الذين شملوا في هذا التقرير أولئك المؤهلين لدعم الاحتياجات التعليمية الخاصة (SEN) أو لديهم خطة للتعليم والصحة والرعاية (EHCP) أو أولئك الذين يعانون من حالة صحية جسدية أو عقلية.
يعتقد حوالي أربعة من كل 10 (43%) من هذه المجموعة قصة مزيفة أو قصة تم إنشاؤها بواسطة الذكاء الاصطناعي، مقارنة بـ 23% من الأطفال الذين لا يعتبرون عرضة لهذا البحث.
اقرأ المزيد: يجب على النواب التحقيق في تخفيضات الوظائف في TikTok مع إثارة القلق بشأن السلامة عبر الإنترنت
وقالت فتاة تبلغ من العمر 17 عامًا للباحثين: “لقد شاهدت اليوم حوالي ثلاثة مقاطع فيديو لكوارث طبيعية مثل الأعاصير والفيضانات، وكانت جميعها مزيفة، لكنني صدقت كل واحدة منها، لقد خدعني الذكاء الاصطناعي”.
وحذر التقرير من أن انتشار المعلومات المضللة عبر الإنترنت “يمكن أن يعمق الانقسامات الاجتماعية والسياسية، بل ويؤدي إلى ضرر حقيقي” مثل أعمال الشغب التي أعقبت جرائم القتل في ساوثبورت.
وأضاف الباحثون: “إن انتشار المحتوى الناتج عن الذكاء الاصطناعي، بما في ذلك التزييف العميق، على وسائل التواصل الاجتماعي يزيد أيضًا من خطر المعلومات الخاطئة والمضللة ويجعل من الصعب على المستخدمين التحقق من الأخبار والثقة بها”.
قال ما يقرب من نصف الأطفال (48٪) إنهم يشعرون أنه يجب على شركات وسائل التواصل الاجتماعي اتخاذ خطوات استباقية لإزالة الأخبار المزيفة، في حين قال 40٪ منهم أنه يجب وضع علامة واضحة على المحتوى الناتج عن الذكاء الاصطناعي أو تصنيفه.
ووفقا للاستطلاع، فإن 76% من الأطفال والشباب يستهلكون الأخبار أسبوعيا، و68% منهم يحصلون على أخبارهم من وسائل التواصل الاجتماعي.
تبين أن الخوارزميات تلعب دورًا مهمًا في عرض أخبار الشباب في خلاصات التوصيات الخاصة بهم، حيث لا يتابع 40% من الأطفال الذين يحصلون على أخبارهم من وسائل التواصل الاجتماعي الحسابات التي تركز على الأخبار.
ودعا التقرير شركات وسائل التواصل الاجتماعي إلى تضمين محو الأمية الإعلامية في تصميمات منصاتها، بما في ذلك ميزات لمساعدة الأطفال بشكل فعال على تقييم المعلومات التي يرونها واستجوابها ووضعها في سياقها.
وقالت راشيل هوجينز، الرئيس التنفيذي المشارك لشركة Internet Matters: “في حين أن وسائل التواصل الاجتماعي يمكن أن توفر إمكانية الوصول الفوري إلى الأخبار التي تبقي الأطفال والشباب على اطلاع واتصال بالعالم من حولهم، فإن حجم المعلومات، الذي غالبا ما يكون سلبيا، يشكل خطرا على رفاهيتهم”.
وقالت جيس أساتو، عضو البرلمان عن حزب العمال عن مقاطعة لويستوفت وعضو لجنة اختيار التعليم: “في كثير من الأحيان، يتعرض الأطفال لمحتوى ضار أو مضلل عبر الإنترنت مع القليل من الدعم لفهمه.
“بينما سيساعد قانون السلامة على الإنترنت في جعل المنصات أكثر عرضة للمساءلة، نحتاج أيضًا إلى التأكد من أن كل طفل لديه المهارات اللازمة للتنقل في العالم الرقمي سريع التغير بأمان ونقد”.
قامت شركة Internet Matters باستطلاع آراء 1000 طفل بريطاني تتراوح أعمارهم بين 11 و17 عامًا في يوليو. دخلت قوانين الأطفال الخاصة بـ Ofcom حيز التنفيذ في نهاية شهر يوليو، ومن المتوقع أن تعمل على ترويض الخوارزميات السامة.
وقال متحدث باسم الحكومة: “يسبق هذا البحث تطبيق متطلبات جديدة لسلامة الأطفال. ونتوقع الآن حماية الشباب من المحتوى الضار، بما في ذلك المواد العنيفة والمعلومات الخاطئة والمضللة غير القانونية، حيث تمتثل المنصات للمتطلبات القانونية للقانون. وهذا يعني خوارزميات أكثر أمانًا وخلاصات أقل سمية”.
“نحن نعمل أيضًا على مساعدة العائلات على بناء مهارات أقوى للسلامة عبر الإنترنت حتى يتمكن الآباء والأطفال من اتخاذ خيارات مستنيرة عبر الإنترنت. ولن نتردد في التصرف عندما تظهر الأدلة أن هناك حاجة إلى مزيد من التدخل لحماية الأطفال.”
اقرأ المزيد: انضم إلى مجموعة WhatsApp الخاصة بسياسة Mirror للحصول على آخر التحديثات من وستمنستر