تتزايد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي عن الاعتداء الجنسي على الأطفال

فريق التحرير

أثارت الثورة في الذكاء الاصطناعي انفجارًا مثيرًا للصور النابضة بالحياة التي تُظهر الاستغلال الجنسي للأطفال ، مما أثار مخاوف المحققين في مجال سلامة الأطفال من أنهم سيقوضون الجهود المبذولة للعثور على الضحايا ومكافحة الإساءة في العالم الحقيقي.

أحدثت أدوات الذكاء الاصطناعي التوليدية ما أطلق عليه أحد المحللين “سباق التسلح المفترس” في منتديات الاستغلال الجنسي للأطفال لأنها يمكن أن تخلق في غضون ثوانٍ صورًا واقعية لأطفال يؤدون أعمالًا جنسية ، والمعروفة باسم المواد الإباحية للأطفال.

تم العثور على الآلاف من الصور الجنسية للأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي في المنتديات عبر الويب المظلم ، وهي طبقة من الإنترنت مرئية فقط باستخدام متصفحات خاصة ، مع مشاركة بعض المشاركين لأدلة تفصيلية حول كيفية قيام مشتهي الأطفال الآخرين بإبداعاتهم الخاصة.

قالت ريبيكا بورتنوف ، مديرة علوم البيانات في Thorn ، وهي مجموعة غير ربحية معنية بسلامة الأطفال شهدت نموًا شهريًا في انتشار الصور منذ الخريف الماضي.

وقالت “التعرف على الضحايا هو بالفعل إبرة في مشكلة كومة قش ، حيث تحاول سلطات إنفاذ القانون العثور على طفل في طريق الأذى”. “تُعد سهولة استخدام هذه الأدوات تحولًا كبيرًا ، فضلاً عن الواقعية. إنه يجعل كل شيء أكثر صعوبة “.

قد يؤدي تدفق الصور إلى إرباك نظام التتبع المركزي المصمم لمنع مثل هذه المواد من الويب لأنه مصمم فقط لالتقاط الصور المعروفة لسوء المعاملة ، وليس اكتشاف الصور التي تم إنشاؤها حديثًا. كما أنه يهدد بإرباك مسؤولي إنفاذ القانون الذين يعملون على تحديد الأطفال الضحايا وسيضطرون إلى قضاء بعض الوقت في تحديد ما إذا كانت الصور حقيقية أم مزيفة.

كما أشعلت الصور جدلاً حول ما إذا كانت كذلك تنتهك قوانين حماية الطفل الفيدرالية لأنها غالبًا ما تصور أطفالًا غير موجودين. يقول مسؤولو وزارة العدل الذين يكافحون استغلال الأطفال إن مثل هذه الصور لا تزال غير قانونية حتى لو ظهر الطفل تم إنشاؤه بواسطة الذكاء الاصطناعي ، لكن لا يمكنهم ذكر أي حالة تم فيها اتهام المشتبه به بتهمة إنشاء واحدة.

تسمح أدوات الذكاء الاصطناعي الجديدة ، المعروفة باسم نماذج الانتشار ، لأي شخص بإنشاء صورة مقنعة فقط عن طريق كتابة وصف قصير لما يريدون رؤيته. تم تغذية العارضين ، مثل DALL-E و Midjourney و Stable Diffusion ، بمليارات الصور المأخوذة من الإنترنت ، وكثير منها أظهر أطفالًا حقيقيين وجاءوا من مواقع الصور والمدونات الشخصية. ثم يقلدون تلك الأنماط المرئية لإنشاء أنماطهم الخاصة الصور.

تم الاحتفاء بهذه الأدوات نظرًا لإبداعها البصري واستخدمت للفوز بمسابقات الفنون الجميلة ، وتوضيح كتب الأطفال ، ولإنشاء صور إخبارية مزيفة ، بالإضافة إلى إنشاء مواد إباحية تركيبية لشخصيات غير موجودة تشبه البالغين.

لكنهم أيضًا زادوا من السرعة والنطاق اللذين يمكن لممارسي الأطفال من خلالها إنشاء صور صريحة جديدة لأن الأدوات تتطلب قدرًا أقل من التطور التقني مقارنة بالطرق السابقة ، مثل تركيب وجوه الأطفال على أجسام البالغين باستخدام “التزييف العميق” ، ويمكنها إنشاء العديد من الصور بسرعة من صورة واحدة. يأمر.

ليس من الواضح دائمًا من منتديات الاستغلال الجنسي للأطفال كيف تم إنشاء الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي. لكن خبراء سلامة الأطفال قالوا إن الكثيرين على ما يبدو اعتمدوا على أدوات مفتوحة المصدر ، مثل Stable Diffusion ، والتي يمكن تشغيلها بطريقة غير مقيدة وغير مقيدة.

قالت منظمة Stability AI ، التي تدير Stable Diffusion ، في بيان إنها تحظر إنشاء صور الاعتداء الجنسي على الأطفال ، وتساعد تحقيقات إنفاذ القانون في الاستخدامات “غير القانونية أو الضارة” ، وأزالت المواد الصريحة من بيانات التدريب الخاصة بها ، مما قلل من “القدرة على الجهات الفاعلة السيئة لتوليد محتوى فاحش. “

ولكن يمكن لأي شخص تنزيل الأداة على جهاز الكمبيوتر الخاص به وتشغيلها كيفما شاء ، مع تجنب قواعد الشركة ورقابتها إلى حد كبير. يطلب ترخيص المصدر المفتوح للأداة من المستخدمين عدم استخدامها “لاستغلال القاصرين أو إلحاق الضرر بهم بأي شكل من الأشكال” ، ولكن ميزات الأمان الأساسية الخاصة بها ، بما في ذلك مرشح الصور الصريحة ، يمكن تجاوزها بسهولة ببعض سطور التعليمات البرمجية التي يمكن للمستخدم إضافتها إليها البرنامج.

اختبار الانتشار المستقر ناقشوا منذ أشهر مخاطر استخدام الذكاء الاصطناعي لتقليد وجوه وأجساد الأطفال ، وفقًا لمراجعة واشنطن بوست للمحادثات على خدمة الدردشة Discord. أفاد أحد المعلقين برؤية شخص ما يستخدم الأداة لمحاولة إنشاء صور ملابس سباحة مزيفة لممثلة طفلة ، واصفا إياها بأنها “شيء قبيح ينتظر حدوثه”.

لكن الشركة دافعت عن نهجها مفتوح المصدر باعتباره مهمًا لحرية الإبداع للمستخدمين. قال الرئيس التنفيذي لشركة Stability AI ، عماد مستقي ، لموقع Verge العام الماضي أنه “في نهاية المطاف ، تقع على عاتق الناس مسؤولية ما إذا كانت أخلاقية ومعنوية وقانونية في كيفية تشغيل هذه التكنولوجيا” ، مضيفًا أن “الأشياء السيئة التي يخلقها الناس … أن تكون نسبة صغيرة جدًا جدًا من إجمالي الاستخدام “.

يحظر المنافسون الرئيسيون لـ Stable Diffusion ، Dall-E و Midjourney ، المحتوى الجنسي ولا يتم توفير مصدر مفتوح ، مما يعني أن استخدامها يقتصر على القنوات التي تديرها الشركة ويتم تسجيل جميع الصور وتعقبها.

أوبن إيه آي ، مختبر الأبحاث في سان فرانسيسكو وراء Dall-E و ChatGPT ، يستخدم مراقبين بشريين لفرض قواعده ، بما في ذلك حظر مواد الاعتداء الجنسي على الأطفال ، وأزال المحتوى الصريح من بيانات التدريب الخاصة بمولد الصور وذلك لتقليل “تعرضه لـ” وقال متحدث باسم هذه المفاهيم.

قالت كيت كلونيك ، أستاذة القانون المساعدة في جامعة سانت جون: “لا تريد الشركات الخاصة أن تكون طرفًا في إنشاء أسوأ أنواع المحتوى على الإنترنت”. “لكن أكثر ما يخيفني هو الإصدار المفتوح لهذه الأدوات ، حيث يمكن أن يكون لديك أفراد أو منظمات تطير ليلاً يستخدمونها ويمكن أن يختفوا. لا توجد طريقة بسيطة ومنسقة للقضاء على العناصر السيئة اللامركزية من هذا القبيل “.

قال محللو سلامة الأطفال إن المستخدمين ناقشوا بشكل علني في منتديات الاستغلال الجنسي للأطفال على شبكة الإنترنت استراتيجيات كيفية إنشاء صور صريحة وتجنب المرشحات المضادة للإباحية ، بما في ذلك استخدام لغات غير إنجليزية يعتقدون أنها أقل عرضة للقمع أو الكشف.

قال آفي جاغر ، رئيس قسم سلامة الأطفال والاستغلال البشري في ActiveFence ، في أحد المنتديات التي تضم 3000 عضو ، إن ما يقرب من 80 في المائة من المشاركين في استطلاع داخلي حديث قالوا إنهم استخدموا أو يعتزمون استخدام أدوات الذكاء الاصطناعي لإنشاء صور الاعتداء الجنسي على الأطفال. يعمل مع وسائل التواصل الاجتماعي ومواقع البث للقبض على المحتوى الضار.

قال جيجر إن أعضاء المنتدى ناقشوا طرقًا لإنشاء صور ذاتية تم إنشاؤها بواسطة الذكاء الاصطناعي وبناء شخصية مزيفة في سن المدرسة على أمل الفوز بثقة الأطفال الآخرين. قالت بورتنوف ، من شركة ثورن ، إن مجموعتها شهدت أيضًا حالات تم فيها استخدام صور حقيقية لأطفال تعرضوا للإيذاء لتدريب أداة الذكاء الاصطناعي على إنشاء صور جديدة تظهر هؤلاء الأطفال في أوضاع جنسية.

قالت يوتا سوراس ، المديرة القانونية للمركز الوطني للأطفال المفقودين والمستغلين ، وهي منظمة غير ربحية تدير قاعدة بيانات تستخدمها الشركات للإبلاغ عن المواد الجنسية للأطفال وحظرها ، قالت إن مجموعتها قدمت زيادة حادة في تقارير الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي. خلال الأشهر القليلة الماضية ، بالإضافة إلى تقارير عن أشخاص قاموا بتحميل صور الاعتداء الجنسي على الأطفال إلى أدوات الذكاء الاصطناعي على أمل الحصول على المزيد.

على الرغم من وجود جزء صغير من أكثر من 32 مليون تقرير تلقتها المجموعة العام الماضي ، إلا أن انتشار الصور المتزايد والواقعية يهدد بحرق وقت وطاقة المحققين الذين يعملون على تحديد الأطفال الضحايا وليس لديهم القدرة على متابعة كل قالت. قال مكتب التحقيقات الفيدرالي في تحذير هذا الشهر إنه شهد زيادة في التقارير المتعلقة بالأطفال الذين تم تغيير صورهم إلى “صور ذات طابع جنسي تبدو واقعية”.

“بالنسبة لإنفاذ القانون ، ما الذي يعطونه الأولوية؟” قال سوراس. “ما الذي يحققون فيه؟ أين يذهب هؤلاء بالضبط في النظام القانوني؟ “

جادل بعض المحللين القانونيين بأن المواد تقع في منطقة رمادية قانونية لأن الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي بالكامل لا تصور طفلًا حقيقيًا يتعرض للأذى. في عام 2002 ، ألغت المحكمة العليا فقرتين لحظر الكونجرس عام 1996 بشأن “استغلال الأطفال في المواد الإباحية الافتراضية” ، حيث حكمت أن صياغته كانت واسعة بما يكفي لتجريم بعض الصور الأدبية للجنس المراهق.

جادل المدافعون عن الحظر في ذلك الوقت بأن الحكم سيجعل الأمر أكثر صعوبة بالنسبة للمدعين العامين الذين يناقشون قضايا تنطوي على اعتداء جنسي على الأطفال لأن المتهمين يمكن أن يزعموا أن الصور لا تظهر أطفالًا حقيقيين.

كتب رئيس المحكمة العليا ويليام رينكويست في معارضته: “لدى الكونجرس مصلحة قوية في ضمان القدرة على فرض حظر على المواد الإباحية الفعلية للأطفال ، وعلينا أن نذعن للنتائج التي توصل إليها والتي تفيد بأن التطور السريع للتكنولوجيا قريبًا سيجعل من المستحيل القيام بذلك. لذا.”

قال دانيال ليونز ، أستاذ القانون في كلية بوسطن ، إن الحكم ربما يستحق إعادة النظر ، بالنظر إلى مدى تقدم التكنولوجيا في العقدين الماضيين.

قال: “في ذلك الوقت ، كان من الصعب تقنيًا إنتاج (مواد الاعتداء الجنسي على الأطفال) الافتراضية بطرق من شأنها أن تكون بديلاً عن الشيء الحقيقي”. “ضاقت هذه الفجوة بين الواقع والمواد التي يولدها الذكاء الاصطناعي ، وتحول هذا من تجربة فكرية إلى مشكلة حقيقية رئيسية محتملة.”

قال مسؤولان بقسم استغلال الأطفال والفحش بوزارة العدل إن الصور غير قانونية بموجب قانون يحظر أي صورة تم إنشاؤها بواسطة الكمبيوتر تكون صريحة جنسيًا وتصور شخصًا “لا يمكن تمييزه فعليًا” عن طفل حقيقي.

كما يستشهدون أيضًا بقانون اتحادي آخر ، تم تمريره في عام 2003 ، يحظر أي صورة تم إنشاؤها بواسطة الكمبيوتر تظهر طفلًا يشارك في سلوك جنسي صريح إذا كان فاحشًا ويفتقر إلى القيمة الفنية الجادة. ويشير القانون إلى أنه “ليس عنصرًا مطلوبًا في أي جريمة … أن يكون القاصر الذي تم تصويره موجودًا بالفعل”.

“تصوير مصمم لإظهار لقطة مركبة لمليون قاصر ، تبدو كطفل حقيقي يمارس الجنس مع شخص بالغ أو طفل آخر – لن نتردد في استخدام الأدوات المتاحة لنا لمقاضاة تلك الصور ،” قال ستيف جروكي ، رئيس القسم.

وقال المسؤولون إن المئات من وكلاء إنفاذ القانون الفيدراليين والولائيين والمحليين المشاركين في إنفاذ القانون المتعلق باستغلال الأطفال من المحتمل أن يناقشوا المشكلة المتنامية في دورة تدريبية وطنية هذا الشهر.

قالت مارجريت ميتشل ، باحثة الذكاء الاصطناعي التي قادت سابقًا فريق الذكاء الاصطناعي الأخلاقي في Google ، بشكل منفصل ، تعمل بعض المجموعات على طرق تقنية لمواجهة المشكلة.

وقالت إن أحد الحلول ، الذي يتطلب موافقة الحكومة ، هو تدريب نموذج للذكاء الاصطناعي على إنشاء أمثلة لصور مزيفة لاستغلال الأطفال حتى تعرف أنظمة الكشف عبر الإنترنت ما يجب إزالته. وأضافت أن الاقتراح سيشكل أضرارًا خاصة به ، لأن هذه المادة يمكن أن تأتي مع “تكلفة نفسية هائلة: هذه أشياء لا يمكنك تجاهلها”.

يعمل باحثون آخرون في مجال الذكاء الاصطناعي الآن على أنظمة تحديد يمكن أن تطبع رمزًا في الصور التي تربط مرة أخرى بمنشئيها على أمل ردع إساءة الاستخدام. نشر باحثون في جامعة ميريلاند الشهر الماضي تقنية جديدة للعلامات المائية “غير المرئية” والتي يمكن أن تساعد في تحديد منشئ الصورة وتحدي إزالتها.

وقال ميتشل إن مثل هذه الأفكار ربما تتطلب مشاركة على مستوى الصناعة حتى تنجح ، وحتى مع ذلك لن يلتفتوا إلى كل انتهاك. قالت: “نحن نبني الطائرة ونحن نطير بها”.

حتى عندما لا تصور هذه الصور أطفالًا حقيقيين ، قالت سوراس ، من المركز الوطني للأطفال المفقودين والمستغلين ، إنها تسبب “ضررًا مجتمعيًا فظيعًا”. تم إنشاؤها بسرعة وبكميات هائلة ، ويمكن استخدامها لتطبيع ممارسة الجنس مع الأطفال أو تأطير السلوكيات البغيضة باعتبارها شائعة ، بنفس الطريقة التي استخدم بها الحيوانات المفترسة الصور الحقيقية لحث الأطفال على الإساءة.

“إنك لا تأخذ أذنًا من طفل واحد. قال سوراس: “لقد نظر النظام إلى 10 ملايين آذان طفل وهو يعرف الآن كيفية إنشاء آذان”. “حقيقة أن شخصًا ما يمكنه التقاط 100 صورة في فترة ما بعد الظهيرة واستخدامها لجذب الطفل إلى هذا السلوك أمر ضار للغاية.”

شارك المقال
اترك تعليقك