تزيد أدوات الفيديو الجديدة المستندة إلى الذكاء الاصطناعي من المخاوف بشأن التزييف العميق قبل الانتخابات

فريق التحرير

يجب أن نصدق مقطع الفيديو الذي أصدرته شركة OpenAI للكشف عن أداة تحويل النص إلى فيديو الجديدة، Sora. مشاهد واقعية لحيوانات الماموث وهي تهاجم سحبًا من الثلج، وزوجين يسيران عبر أزهار الكرز المتساقطة، ولقطات جوية للاندفاع نحو الذهب في كاليفورنيا.

وبحسب ما ورد دفعت المظاهرة المنتج السينمائي تايلر بيري إلى إيقاف استثمار بقيمة 800 مليون دولار في الاستوديو. أدوات مثل Sora تَعِد بترجمة رؤية المستخدم إلى صور متحركة واقعية من خلال نص بسيط، كما يقول المنطق، مما يجعل الاستوديوهات عفا عليها الزمن.

ويشعر آخرون بالقلق من أن الذكاء الاصطناعي مثل هذا يمكن استغلاله من قبل أصحاب التخيلات المظلمة. يمكن للجهات الفاعلة الخبيثة استخدام هذه الخدمات لإنشاء صور مزيفة واقعية للغاية، أو إرباك الناخبين أو تضليلهم أثناء الانتخابات، أو ببساطة التسبب في الفوضى عن طريق زرع الشائعات المثيرة للانقسام.

ويكافح المنظمون وإنفاذ القانون ومنصات وسائل التواصل الاجتماعي بالفعل للتعامل مع ظهور المعلومات المضللة التي يولدها الذكاء الاصطناعي، بما في ذلك الصوت المزيف للقادة السياسيين الذين يُزعم أنهم ساعدوا في تحريف الانتخابات في سلوفاكيا وتثبيط الناس عن التصويت في الانتخابات التمهيدية في نيو هامبشاير.

ويشعر السياسيون والمجتمع المدني بالقلق من أنه مع تزايد تطور هذه الأدوات، سيكون من الصعب أكثر من أي وقت مضى على الناس العاديين معرفة ما هو حقيقي وما هو مزيف.

لكن الخبراء في مجال التضليل السياسي والذكاء الاصطناعي يقولون إن الاستخدام المتزايد لمنتجات الذكاء الاصطناعي ليس سوى وجه جديد لمشكلة قديمة. هذه الأدوات تضيف فقط إلى ترسانة جيدة التجهيز من التقنيات والتقنيات المستخدمة للتلاعب والتضليل.

إن التعامل مع التحدي المتمثل في التزييف العميق يعني في الواقع معالجة الأسئلة التي لم يتم حلها بعد حول كيفية تنظيم منصات الوسائط الاجتماعية التي ستنتشر عليها وتحميل شركات التكنولوجيا الكبرى المسؤولية عندما تُترك منتجاتها مفتوحة لإساءة الاستخدام.

وقال كالوم هود، رئيس الأبحاث في مركز مكافحة الكراهية الرقمية (CCDH)، وهي مجموعة حملات: “تهدد مولدات صور الذكاء الاصطناعي هذه بتفاقم مشكلة التضليل الانتخابي، لكن يجب أن نكون واعين تمامًا أنها مشكلة بالفعل”. “نحن بحاجة بالفعل إلى اتخاذ تدابير أكثر صرامة من منصات وسائل التواصل الاجتماعي بشأن هذه المشكلة القائمة.”

العديد من الشركات التي تقدم أدوات إنشاء صور الذكاء الاصطناعي، بما في ذلك Midjourney وOpenAI وMicrosoft، لديها سياسات من المفترض أن تمنع المستخدمين من إنشاء صور مضللة. ومع ذلك، يدعي CCDH أن هذه السياسات لا يتم تنفيذها.

وفي دراسة صدرت في 6 مارس/آذار، أظهر المركز أنه لا يزال من السهل نسبيًا إنشاء صور يمكن أن تكون خطيرة في السياق الحزبي للغاية لانتخابات الولايات المتحدة، بما في ذلك الصور الواقعية المزيفة للرئيس جو بايدن في المستشفى أو تحية المهاجرين في الخارج. الحدود المكسيكية والصور على غرار كاميرات المراقبة للتلاعب في الانتخابات.

تعكس هذه الصور الأكاذيب الشائعة في السياسة الأمريكية. روج الرئيس السابق دونالد ترامب بشكل روتيني لفكرة التلاعب بنتائج انتخابات 2020، وهي كذبة ساعدت في إثارة احتجاجات عنيفة في مبنى الكابيتول في يناير 2021.

وقال هود: “يظهر أن (الشركات) لم تفكر في هذا الأمر بشكل كافٍ”. “تكمن نقطة الضعف الكبيرة هنا في الصور التي يمكن استخدامها لدعم رواية الانتخابات المسروقة، أو الادعاءات الكاذبة بتزوير الانتخابات”.

وجد الباحثون اختلافات كبيرة في كيفية استجابة صانعي الصور الفرديين للمطالبات، حيث لم يسمح البعض للمستخدمين بإنشاء صور حزبية بشكل واضح للغاية. وقال هود: “تظهر هذه الاختلافات أنه من الممكن وضع ضمانات فعالة”، مضيفاً أن هذا يعكس خياراً من جانب الشركات.

وقال: “إنه مؤشر على خلل أوسع نطاقا بين دافع الربح وسلامة شركات الذكاء الاصطناعي”. “لديهم كل الحوافز للتحرك بأسرع ما يمكن مع وجود عدد قليل من حواجز الحماية حتى يتمكنوا من طرح المنتجات، ودفع الميزات الجديدة والحصول على المزيد من تمويل المشاريع أو الاستثمار. ليس لديهم أي حافز للإبطاء والحصول على الأمان أولاً.

ولم تستجب شركات OpenAI وMicrosoft وMidJourney لطلبات التعليق.

لم يتحقق سوى القليل

ومن المرجح أن يأتي هذا الحافز في هيئة تنظيمات تجبر شركات التكنولوجيا على التصرف وتعاقبها إذا لم تفعل ذلك. لكن خبراء التضليل عبر وسائل التواصل الاجتماعي يقولون إنهم يشعرون وكأنهم سبق لهم أن شاهدوا من قبل. تبدو المحادثات التي تجري حول تنظيم الذكاء الاصطناعي بشكل مخيف مثل تلك التي جرت قبل سنوات حول انتشار المعلومات المضللة على وسائل التواصل الاجتماعي. وتعهدت شركات التكنولوجيا الكبرى باتخاذ تدابير لمعالجة انتشار الأكاذيب الخطيرة، لكن المشكلة لا تزال قائمة.

قال ويليام دانس، وهو باحث مشارك كبير في جامعة لانكستر، والذي قدم المشورة إلى الإدارات الحكومية وأجهزة الأمن في المملكة المتحدة بشأن المعلومات المضللة: “إنه مثل يوم جرذ الأرض”. “ويخبرك هذا بمدى ضآلة ما حققناه في السنوات العشر إلى الخمس عشرة الماضية.”

ومع احتمال إجراء انتخابات مشحونة للغاية في الاتحاد الأوروبي والمملكة المتحدة والهند والولايات المتحدة هذا العام، تعهدت شركات التكنولوجيا الكبرى مرة أخرى، فرديًا وجماعيًا، بالحد من انتشار هذا النوع من المعلومات المضللة والمعلومات الخاطئة على منصاتها.

في أواخر فبراير، أعلنت شركة ميتا المالكة لفيسبوك وإنستغرام عن سلسلة من الإجراءات التي تهدف إلى الحد من المعلومات المضللة والحد من وصول عمليات التأثير المستهدفة خلال انتخابات البرلمان الأوروبي. يتضمن ذلك السماح لشركاء التحقق من الحقائق – المنظمات المستقلة التي تسمح لها Meta بتسمية المحتوى نيابة عنها – بتسمية المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أو المحتوى الذي تم التلاعب به.

وكانت شركة ميتا من بين حوالي 20 شركة وقعت على “اتفاق التكنولوجيا”، الذي يعد بتطوير أدوات لاكتشاف المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي وتصنيفها وربما فضحها.

قال دانس: “يبدو أن هناك نوعًا من القالب الفارغ يشبه: “سنبذل قصارى جهدنا للحماية من القوالب الفارغة”. “التضليل، خطاب الكراهية، الذكاء الاصطناعي، أي شيء آخر.”

إن التقاء الذكاء الاصطناعي غير المنظم ووسائل التواصل الاجتماعي غير الخاضعة للتنظيم يثير قلق الكثيرين في المجتمع المدني، لا سيما وأن العديد من أكبر منصات التواصل الاجتماعي قامت بتقليص فرق “الثقة والسلامة” المسؤولة عن الإشراف على استجابتها للمعلومات المضللة والمعلومات الخاطئة وخطاب الكراهية والمحتويات الضارة الأخرى. . تخلت شركة X – تويتر سابقًا – عن ما يقرب من ثلث موظفي الثقة والسلامة لديها بعد استحواذ إيلون ماسك على المنصة في عام 2022.

“نحن في وضع مقلق بشكل مضاعف، حيث يمتلك ناشرو المعلومات المضللة الانتخابية أدوات وقدرات جديدة متاحة لهم، في حين يبدو أن شركات وسائل التواصل الاجتماعي، في كثير من الحالات، تقيد نفسها عمدًا من حيث القدرات التي تمتلكها للتعامل مع المعلومات المضللة في الانتخابات. “، قال هود من CCDH. “لذا فهو اتجاه مهم ومثير للقلق حقًا.”

قبل أن تبدأ الدورات الانتخابية بشكل جدي، سيكون من الصعب التنبؤ بمدى انتشار التزييف العميق على وسائل التواصل الاجتماعي. لكن الباحثين يقولون إن بعض الضرر قد حدث بالفعل. عندما يصبح الناس أكثر وعيًا بالقدرة على إنشاء لقطات أو صور مزيفة ومتطورة، فإن ذلك يخلق شعورًا أوسع بعدم الثقة والقلق. يمكن رفض الصور أو مقاطع الفيديو الحقيقية باعتبارها مزيفة – وهي ظاهرة تُعرف باسم “أرباح الكذاب”.

“أدخل على الإنترنت، وأرى شيئًا ما، وأتساءل: هل هذا حقيقي؟ هل تم إنشاء هذا الذكاء الاصطناعي؟ وقال كايتشنغ يانغ، الباحث في جامعة نورث إيسترن الذي يدرس الذكاء الاصطناعي والمعلومات المضللة: “لا أستطيع أن أقول المزيد”. “بالنسبة للمستخدمين العاديين، سأفترض أن الأمر سيكون أسوأ. لا يهم مقدار المحتوى الحقيقي الموجود على الإنترنت. طالما أن الناس يعتقدون أن هناك الكثير، فلدينا مشكلة”.

شارك المقال
اترك تعليقك