تقوم أداة فيديو AI من Google بدمج مخاوف من زيادة المعلومات الخاطئة

فريق التحرير

في كل من طهران وتل أبيب ، واجه السكان قلقًا متزايدًا في الأيام الأخيرة حيث يلوح تهديد الضربات الصاروخية على مجتمعاتهم. إلى جانب المخاوف الحقيقية للغاية للسلامة البدنية ، هناك إنذار متزايد حول دور المعلومات الخاطئة ، وخاصة المحتوى الناتج عن الذكاء الاصطناعي ، في تشكيل الإدراك العام.

أبلغت Geoconfisred ، وهي منصة للتحقق عبر الإنترنت ، عن زيادة في المعلومات الخاطئة التي تم إنشاؤها من الذكاء الاصطناعى ، بما في ذلك مقاطع الفيديو ملفقة من الإضرابات الجوية التي لم تحدث أبدًا ، في إيران وإسرائيل.

يتبع ذلك موجة مماثلة من اللقطات التي تم التلاعب بها والتي تم تعميمها خلال الاحتجاجات الأخيرة في لوس أنجلوس ، والتي نشأت بسبب ارتفاع غارات الهجرة في ثاني أكثر المدينة المكتظة بالسكان في الولايات المتحدة.

تعد التطورات جزءًا من اتجاه أوسع للأحداث المشحونة سياسياً التي يتم استغلالها لنشر روايات خاطئة أو مضللة.

أضاف إطلاق منتج جديد لمنظمة العفو الدولية من قبل واحدة من أكبر شركات التكنولوجيا في العالم إلى مخاوف اكتشاف الحقيقة من الخيال.

في أواخر الشهر الماضي ، أصدر قسم أبحاث AI من Google ، DeepMind ، VEO 3 ، وهو أداة قادرة على إنشاء مقاطع فيديو مدتها ثماني ثوانٍ من مطالبات النص. ينتج عن النظام ، وهو أحد أكثر الناتج شمولاً متاحًا حاليًا مجانًا ، صورًا وصوتًا واقعيًا للغاية قد يكون من الصعب على المشاهد العادي أن يميز عن لقطات حقيقية.

لمعرفة ما يمكن أن تفعله بالضبط ، أنشأت الجزيرة مقطع فيديو مزيفًا في دقائق باستخدام مطالبة تصور متظاهرًا في نيويورك تدعي أنها قد أجرت للحضور ، وقد استخدم الجمهوريون المشتركون في نقاش تاريخياً لرفع الاحتجاجات ، مصحوبة بمصطلحات يبدو أنها تظهر اضطرابات عنيفة. كان المنتج النهائي لا يمكن تمييزه تقريبًا من لقطات أصلية.

قامت الجزيرة أيضًا بإنشاء مقاطع فيديو تعرض ضربات صاروخية مزيفة في كل من طهران وتل أبيب باستخدام المطالبات “أرني قصفًا في تل أبيب” ثم موجهًا مماثلًا لـ Tehran. يقول Veo 3 على موقعه على الإنترنت إنه يمنع “الطلبات والنتائج الضارة” ، لكن الجزيرة لم تواجه أي مشاكل في صنع مقاطع الفيديو هذه المزيفة.

وقال بن كولمان ، الرئيس التنفيذي لشركة Deepfake Defender Defender ، في مقابلة مع Al Jazerera: “لقد قمت مؤخرًا بإنشاء مقطع فيديو اصطناعي تمامًا عن نفسي أتحدث في قمة الويب باستخدام أي شيء سوى صورة واحدة وبعض الدولارات. لقد خدعت فريقي ، وزملائي الموثوق بهم ، وخبراء الأمن”.

“إذا كان بإمكاني القيام بذلك في دقائق ، تخيل ما الذي يقوم به الممثلون السيئون المحفزون بالفعل مع وقت وموارد غير محدودة.”

وأضاف قائلاً: “نحن لا نستعد لتهديد مستقبلي. لقد تأخرنا بالفعل في سباق بدأ اللحظة التي أطلقت فيها Veo 3. حلول قوية موجودة وتعمل-وليس فقط من صانعي النماذج الذين يقدمونه على أنهم نهاية كل شيء.”

تقول Google إنها تأخذ المشكلة على محمل الجد.

“نحن ملتزمون بتطوير الذكاء الاصطناعى بمسؤولية ، ولدينا سياسات واضحة لحماية المستخدمين من الأذى وتحكم استخدام أدوات الذكاء الاصطناعى لدينا. أي محتوى تم إنشاؤه مع Google AI يتضمن علامة مائية سينثيد ، ونضيف علامة مائية مرئية إلى مقاطع فيديو VEO أيضًا” ، قال متحدث باسم الشركة AL Jazeera.

“لا يهتمون بالعملاء”

ومع ذلك ، يقول الخبراء إن الأداة قد تم إصدارها قبل تنفيذ هذه الميزات بالكامل ، وهي خطوة يعتقد البعض أنها متهورة.

قال جوشوا ماكينتي ، الرئيس التنفيذي لشركة Deepfake Detection Polyguard ، إن Google هرعت المنتج إلى السوق لأنه كان متخلفًا عن منافسين مثل Openai و Microsoft ، التي أصدرت المزيد من الأدوات السهلة للاستخدام والمنشأة. لم ترد جوجل على هذه المطالبات.

وقال ماكنتي: “تحاول Google أن تكسب حجة مفادها أن الذكاء الاصطناعي مهم عندما يخسرون بشكل كبير”. “إنهم مثل الحصان الثالث في سباق ثنائي الخيول. إنهم لا يهتمون بالعملاء. إنهم يهتمون بتقنيهم اللامع.”

وردد هذا المشاعر سوكريت فينكاتاجيري ، أستاذ مساعد في علوم الكمبيوتر في كلية سوارثمور.

وقال: “الشركات في وضع غريب. إذا لم تقم بتطوير الذكاء الاصطناعى التوليدي ، فأنت تنظر إليها على أنها تتخلف عن الركب وتتأثر مخزونك”. “لكن عليهم أيضًا مسؤولية جعل هذه المنتجات آمنة عند نشرها في العالم الحقيقي. لا أعتقد أن أي شخص يهتم بذلك الآن. كل هذه الشركات تضع الربح – أو وعد الربح – على السلامة.”

اعترفت أبحاث Google الخاصة ، التي نشرت العام الماضي ، بالتهديد الذي يطرحه الذكاء الاصطناعي.

“إن انفجار الأساليب المستندة إلى الذكاء الاصطناعى قد ألغيت هذه المخاوف (حول المعلومات الخاطئة) ، حيث يمكنها توليف محتوى صوتي ومرئي واقعية للغاية وكذلك نص طبيعي بطلاقة على نطاق مستحيل سابقًا دون قدر هائل من العمل اليدوي”.

حذر ديميس هاسابيس ، الرئيس التنفيذي لشركة Google Deepmind ، منذ فترة طويلة زملائه في صناعة الذكاء الاصطناعى من إعطاء الأولوية للسرعة على السلامة. وقال تايم في عام 2023: “أود أن أدافع عن عدم التحرك بسرعة وكسر الأشياء”.

ورفض طلب الجزيرة لإجراء مقابلة.

ومع ذلك ، على الرغم من هذه التحذيرات ، أصدرت Google VEO 3 قبل تنفيذها بالكامل ، مما أدى إلى حوادث مثل الحرس الوطني الذي كان على الحرس الوطني أن يكشف عنه في لوس أنجلوس بعد أن صنع حساب Tiktok مقطع فيديو “يوم في الحياة” المزيف لجندي قال إنه يستعد لـ “الغازات اليوم” – في إشارة إلى إطلاق الغازات المسيلة للدموع.

تقليد الأحداث الحقيقية

تداعيات VEO 3 تمتد إلى ما هو أبعد من لقطات الاحتجاج. في الأيام التالية لإصدارها ، تم تحاكي العديد من مقاطع الفيديو المصنعة من عمليات الإذاعة الإخبارية الحقيقية على وسائل التواصل الاجتماعي ، بما في ذلك أحد التقارير الخاطئة حول اقتحام المنزل الذي تضمن رسومات CNN.

ادعى مقطع آخر زوراً أن يخت JK Rowling غرق قبالة ساحل Turkiye بعد هجوم Orca ، الذي يعزى التقرير إلى Alejandra Caraballo من Cyberlaw Clinic في هارفارد لو ، الذي بنى الفيديو لاختبار الأداة.

في منشور ، حذرت كارابالو من أن مثل هذه التقنية يمكن أن تضلل مستهلكي الأخبار الأكبر سناً على وجه الخصوص.

وكتبت: “ما يثير القلق هو مدى سهولة التكرار. في غضون عشر دقائق ، كان لدي إصدارات متعددة. وهذا يجعل من الصعب اكتشافها وأسهل الانتشار”. “إن عدم وجود chyron (لافتة على بث أخبار) يجعل من التافهة إضافة واحدة بعد حقيقة لجعلها تبدو وكأنها قناة إخبارية معينة.”

في تجربتنا الخاصة ، استخدمنا موجهًا لإنشاء مقاطع فيديو أخبار مزيفة تحمل شعارات ABC و NBC ، مع الأصوات التي تحاكي تلك الخاصة بـ CNN Consors Jake Tapper و Erin Burnett و John Berman و Anderson Cooper.

وقال كارابالو لـ AL Jazerera: “الآن ، أصبح من الصعب وأصعب معرفة الحقيقة من الخيال”. “كشخص يبحث عن أنظمة الذكاء الاصطناعي لسنوات ، حتى أنني بدأت في النضال.”

يمتد هذا التحدي إلى الجمهور أيضًا. وجدت دراسة أجرتها جامعة ولاية بنسلفانيا أن 48 في المائة من المستهلكين قد تم خداعهم من خلال مقاطع فيديو مزيفة تم توزيعها عبر تطبيقات المراسلة أو وسائل التواصل الاجتماعي.

على عكس الاعتقاد الشائع ، فإن البالغين الأصغر سنا أكثر عرضة للمعلومات الخاطئة من البالغين الأكبر سناً ، ويرجع ذلك إلى حد كبير إلى أن الأجيال الشابة تعتمد على وسائل التواصل الاجتماعي من أجل الأخبار ، والتي تفتقر إلى المعايير التحريرية والرقابة القانونية للمؤسسات الإخبارية التقليدية.

أظهرت دراسة استقصائية لليونسكو من ديسمبر أن 62 في المائة من المؤثرين من الأخبار لا يتحققون من المعلومات قبل مشاركتها.

Google ليست وحدها في تطوير الأدوات التي تسهل انتشار الوسائط الاصطناعية. تقدم شركات مثل Deepbrain للمستخدمين القدرة على إنشاء مقاطع فيديو تجسد من الذكاء الاصطناعى ، على الرغم من قيودها ، حيث لا يمكنها إنتاج مشهد كامل مثل Veo 3. لم يستجب Deepbrain لطلب الجزيرة للتعليق. أدوات أخرى مثل Synthesia و Dubverse تسمح بالفيديو Dubbing ، وذلك للترجمة في المقام الأول.

توفر مجموعة الأدوات المتنامية هذه المزيد من الفرص للممثلين الخبيثين. تضمنت حادثة حديثة شريحة أخبار ملفقة تم فيها إبرام مراسل CBS في دالاس ليقول لتصريحات عنصرية. لا يزال البرنامج المستخدم مجهول الهوية.

لم تستجب CBS News Texas لطلب التعليق.

نظرًا لأن الوسائط الاصطناعية تصبح أكثر انتشارًا ، فهي تشكل مخاطر فريدة تسمح للجهات الفاعلة السيئة بدفع المحتوى المعالج الذي ينتشر بشكل أسرع مما يمكن تصحيحه ، وفقًا لكولمان.

وقال كولمان: “بحلول الوقت الذي ينتشر فيه المحتوى المزيف عبر منصات لا تتحقق من هذه العلامات (التي هي معظمها) ، من خلال القنوات التي تجنبها ، أو عبر ممثلين سيئين تعلموا تزويرها ، فإن الضرر يحدث”.

شارك المقال
اترك تعليقك