بموجب التشريع الجديد، سيتمكن مطورو الذكاء الاصطناعي ومنظمات حماية الطفل من اختبار نماذج الذكاء الاصطناعي (AI) لمنع إنشاء صور غير لائقة
سيواجه المحتالون الأشرار الذين يصنعون صورًا مزيفة جنسية للأطفال، بما في ذلك الرضع الذين تقل أعمارهم عن عامين، حملة قمع جديدة بموجب القانون.
وبموجب التشريع الجديد، سيتمكن مطورو الذكاء الاصطناعي ومنظمات حماية الطفل من اختبار نماذج الذكاء الاصطناعي (AI) لمنع إنشاء صور غير لائقة.
وبموجب قانون المملكة المتحدة الحالي – الذي يجرم حيازة وإنشاء مواد الاعتداء الجنسي على الأطفال – لا يمكن للمطورين إجراء اختبارات السلامة على نماذج الذكاء الاصطناعي، مما يعني أنه لا يمكن إزالة الصور إلا بعد إنشائها ومشاركتها عبر الإنترنت.
تضاعفت التقارير المتعلقة بمواد الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي في العام الماضي، حيث ارتفعت من 199 في عام 2024 إلى 426 في عام 2025، وفقًا للبيانات التي نشرتها مؤسسة مراقبة الإنترنت (IWF) اليوم. كان هناك أيضًا ارتفاع مثير للقلق في تصوير الأطفال الرضع، حيث ارتفعت صور الأطفال الذين تتراوح أعمارهم بين 0-2 عامًا من خمسة في عام 2024 إلى 92 في عام 2025.
اقرأ المزيد: يمكن حظر تطبيقات المواعدة إذا فشلت في معالجة الوميض السيبراني بموجب تغيير كبير في القانون
وقال IWF إن خطورة المواد زادت أيضًا، حيث ارتفع محتوى الفئة “أ” – الصور التي تتضمن نشاطًا جنسيًا مخترقًا، أو نشاطًا جنسيًا مع حيوان، أو السادية – من 2621 إلى 3086 عنصرًا. لقد تم استهداف الفتيات بشكل كبير، حيث يشكلن 94٪ من الصور غير القانونية التي يستخدمها الذكاء الاصطناعي في عام 2025.
وقالت وزارة العلوم والابتكار والتكنولوجيا (DSIT)، فيما يوصف بأنه الأول من نوعه في العالم، إن التغيير في القانون سيضمن إمكانية “اختبار ضمانات أنظمة الذكاء الاصطناعي بقوة منذ البداية”. كما أنه سيمكن المنظمات من التحقق من أن العارضات يتمتعن بحماية ضد المواد الإباحية المتطرفة والصور الحميمة غير التوافقية.
سيتم طرح التغييرات اليوم كتعديل لمشروع قانون الجريمة والشرطة. وقالت الحكومة إنها ستجمع مجموعة من الخبراء في مجال الذكاء الاصطناعي وسلامة الأطفال لضمان إجراء الاختبار “بسلامة وأمان”.
وقالت NSPCC إن القانون الجديد يجب أن يلزم اختبار نماذج الذكاء الاصطناعي بهذه الطريقة.
وقال راني جوفندر، مدير سياسة سلامة الأطفال عبر الإنترنت في المؤسسة الخيرية: “لإحداث فرق حقيقي للأطفال، لا يمكن أن يكون هذا اختياريًا. يجب على الحكومة التأكد من وجود واجب إلزامي لمطوري الذكاء الاصطناعي لاستخدام هذا البند بحيث تكون الحماية من الاعتداء الجنسي على الأطفال جزءًا أساسيًا من تصميم المنتج”.
قال كيري سميث، الرئيس التنفيذي لـ IWF: “لقد نجحت أدوات الذكاء الاصطناعي في جعل الناجين يقعون ضحايا مرة أخرى ببضع نقرات فقط، مما يمنح المجرمين القدرة على صنع كميات لا حصر لها من مواد الاعتداء الجنسي على الأطفال المتطورة والواقعية. يجب دمج السلامة في التكنولوجيا الجديدة حسب التصميم. يمكن أن يكون إعلان اليوم خطوة حيوية للتأكد من أن منتجات الذكاء الاصطناعي آمنة قبل إطلاقها”.
وقالت وزيرة التكنولوجيا ليز كيندال: “لن نسمح للتقدم التكنولوجي بتجاوز قدرتنا على الحفاظ على سلامة الأطفال.
“ستضمن هذه القوانين الجديدة جعل أنظمة الذكاء الاصطناعي آمنة من المصدر، مما يمنع نقاط الضعف التي قد تعرض الأطفال للخطر. ومن خلال تمكين المنظمات الموثوقة من التدقيق في نماذج الذكاء الاصطناعي الخاصة بها، فإننا نضمن أن سلامة الأطفال مصممة في أنظمة الذكاء الاصطناعي، وليست مثبتة كفكرة لاحقة.”