بعد أيام من تلقي الناخبين في نيو هامبشاير مكالمة آلية بصوت مصطنع يشبه صوت الرئيس جو بايدن، حظرت لجنة الاتصالات الفيدرالية استخدام الأصوات المولدة بالذكاء الاصطناعي في المكالمات الآلية.
لقد كانت نقطة اشتعال. ستكون انتخابات الولايات المتحدة عام 2024 هي الأولى التي يتم الكشف عنها وسط وصول عام واسع النطاق إلى مولدات الذكاء الاصطناعي، والتي تسمح للناس بإنشاء الصور والصوت والفيديو – وبعضها لأغراض شائنة.
سارعت المؤسسات إلى الحد من الأفعال الخاطئة التي يدعمها الذكاء الاصطناعي.
سنت ست عشرة ولاية تشريعات حول استخدام الذكاء الاصطناعي في الانتخابات والحملات الانتخابية؛ طلبت العديد من هذه الولايات إخلاء المسؤولية في الوسائط الاصطناعية المنشورة بالقرب من الانتخابات. نشرت لجنة المساعدة الانتخابية، وهي وكالة اتحادية تدعم مسؤولي الانتخابات، “مجموعة أدوات الذكاء الاصطناعي” التي تحتوي على نصائح يمكن لمسؤولي الانتخابات استخدامها للتواصل بشأن الانتخابات في عصر المعلومات الملفقة. نشرت الولايات صفحاتها الخاصة لمساعدة الناخبين على تحديد المحتوى الناتج عن الذكاء الاصطناعي.
وحذر الخبراء من قدرة الذكاء الاصطناعي على إنشاء صور مزيفة تجعل المرشحين يبدون وكأنهم يقولون أو يفعلون أشياء لم يفعلوها. وقال الخبراء إن تأثير الذكاء الاصطناعي يمكن أن يلحق الضرر بالولايات المتحدة على المستوى المحلي – فتضليل الناخبين، أو التأثير على عملية صنع القرار لديهم أو ردعهم عن التصويت – وفي الخارج، مما يفيد الخصوم الأجانب.
لكن السيل المتوقع من المعلومات المضللة التي يحركها الذكاء الاصطناعي لم يتحقق قط. مع حلول يوم الانتخابات وذهابه، لعبت المعلومات المضللة الفيروسية دورًا رئيسيًا، حيث كانت مضللة بشأن فرز الأصوات، وبطاقات الاقتراع عبر البريد، وآلات التصويت. ومع ذلك، اعتمد هذا الخداع إلى حد كبير على التقنيات القديمة والمألوفة، بما في ذلك ادعاءات وسائل التواصل الاجتماعي المستندة إلى النصوص ومقاطع الفيديو أو الصور خارج السياق.
وقال بول باريت، نائب مدير مركز ستيرن للأعمال وحقوق الإنسان بجامعة نيويورك: “تبين أن استخدام الذكاء الاصطناعي التوليدي ليس ضروريا لتضليل الناخبين”. “لم تكن هذه انتخابات الذكاء الاصطناعي”.
وقال دانييل شيف، الأستاذ المساعد لسياسة التكنولوجيا في جامعة بوردو، إنه لم تكن هناك “حملة ضخمة في الساعة الحادية عشرة” ضللت الناخبين بشأن أماكن الاقتراع وأثرت على نسبة الإقبال. وقال: “كان هذا النوع من المعلومات المضللة أصغر حجما ومن غير المرجح أن يكون العامل الحاسم في الانتخابات الرئاسية على الأقل”.
قال الخبراء إن الادعاءات التي أنشأها الذكاء الاصطناعي والتي حصلت على أكبر قدر من الاهتمام دعمت الروايات الموجودة بدلاً من اختلاق ادعاءات جديدة لخداع الناس. على سبيل المثال، بعد أن ادعى الرئيس السابق دونالد ترامب ونائبه جي دي فانس، كذبا، أن الهايتيين كانوا يأكلون حيوانات أليفة في سبرينغفيلد، أوهايو، غمرت صور الذكاء الاصطناعي والميمات التي تصور إساءة معاملة الحيوانات الإنترنت.
وفي الوقت نفسه، قال خبراء التكنولوجيا والسياسة العامة إن الضمانات والتشريعات قللت من قدرة الذكاء الاصطناعي على خلق خطاب سياسي ضار.
وقال شيف إن الأضرار المحتملة التي قد يسببها الذكاء الاصطناعي في الانتخابات أثارت “طاقة عاجلة” تركز على إيجاد الحلول.
قال شيف: “أعتقد أن الاهتمام الكبير الذي أبداه المدافعون العامون والجهات الحكومية والباحثون وعامة الناس كان له أهمية كبيرة”.
طلبت شركة Meta، التي تمتلك Facebook وInstagram وThreads، من المعلنين الكشف عن استخدام الذكاء الاصطناعي في أي إعلانات حول السياسة أو القضايا الاجتماعية. طبق TikTok آلية لتصنيف بعض المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي تلقائيًا. حظرت شركة OpenAI، الشركة التي تقف وراء ChatGPT وDALL-E، استخدام خدماتها في الحملات السياسية ومنعت المستخدمين من إنشاء صور لأشخاص حقيقيين.
استخدم ممثلو المعلومات المضللة التقنيات التقليدية
وقال سيوي ليو، أستاذ علوم الكمبيوتر والهندسة في جامعة بوفالو وخبير الطب الشرعي في وسائل الإعلام الرقمية، إن قدرة الذكاء الاصطناعي على التأثير على الانتخابات تلاشت أيضًا بسبب وجود طرق أخرى للحصول على هذا التأثير.
قال هربرت تشانغ، الأستاذ المساعد في العلوم الاجتماعية الكمية في كلية دارتموث: “في هذه الانتخابات، قد يبدو تأثير الذكاء الاصطناعي ضعيفًا لأن التنسيقات التقليدية كانت لا تزال أكثر فعالية، وعلى منصات الشبكات الاجتماعية مثل Instagram، تستخدم الحسابات ذات المتابعين الكبيرين الذكاء الاصطناعي بشكل أقل”. . شارك تشانغ في كتابة دراسة وجدت أن الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي “تولد انتشارًا أقل من الميمات التقليدية”، لكن الميمات التي تم إنشاؤها باستخدام الذكاء الاصطناعي تولد أيضًا انتشارًا.
يقوم الأشخاص البارزون الذين لديهم عدد كبير من المتابعين بنشر الرسائل بسهولة دون الحاجة إلى الوسائط التي ينشئها الذكاء الاصطناعي. على سبيل المثال، قال ترامب كذبًا مرارًا وتكرارًا في خطاباته ومقابلاته الإعلامية وعلى وسائل التواصل الاجتماعي إنه يتم جلب المهاجرين غير الشرعيين إلى الولايات المتحدة للتصويت على الرغم من أن حالات تصويت غير المواطنين نادرة للغاية وأن الجنسية مطلوبة للتصويت في الانتخابات الفيدرالية. وأظهرت استطلاعات الرأي أن ادعاء ترامب المتكرر قد أتى بثماره: قال أكثر من نصف الأمريكيين في أكتوبر إنهم قلقون بشأن تصويت غير المواطنين في انتخابات عام 2024.
وقد سلطت عمليات تدقيق الحقائق والقصص التي أجرتها PolitiFact حول المعلومات الخاطئة المتعلقة بالانتخابات الضوء على بعض الصور ومقاطع الفيديو التي استخدمت الذكاء الاصطناعي، لكن العديد من الوسائط الفيروسية كانت ما يطلق عليه الخبراء “المزيفة الرخيصة” – محتوى أصلي تم تحريره بشكل خادع بدون الذكاء الاصطناعي.
وفي حالات أخرى، قلب السياسيون السيناريو، فألقوا اللوم على الذكاء الاصطناعي أو استخفوا به بدلاً من استخدامه. على سبيل المثال، ادعى ترامب كذبًا أن مونتاج زلاته التي نشرها مشروع لينكولن تم إنشاؤها بواسطة الذكاء الاصطناعي، وقال إن حشدًا من أنصار هاريس تم إنشاؤه بواسطة الذكاء الاصطناعي. بعد أن نشرت شبكة سي إن إن تقريرًا مفاده أن نائب حاكم ولاية كارولينا الشمالية مارك روبنسون أدلى بتعليقات مسيئة في منتدى إباحي، ادعى روبنسون أن الأمر يتعلق بالذكاء الاصطناعي. وقال أحد الخبراء لقناة WFMY-TV في جرينسبورو بولاية نورث كارولينا إن ما ادعى روبنسون أنه سيكون “شبه مستحيل”.
الذكاء الاصطناعي يستخدم لإثارة “العداء الحزبي”
واكتشفت السلطات أن ساحر شوارع في نيو أورليانز قام بإنشاء مكالمة وهمية لبايدن في شهر يناير، والتي يمكن من خلالها سماع الرئيس وهو يثبط الناس عن التصويت في الانتخابات التمهيدية في نيو هامبشاير. قال الساحر إن الأمر استغرق 20 دقيقة فقط ودولارًا واحدًا لإنشاء الصوت المزيف.
ويواجه المستشار السياسي الذي استأجر الساحر لإجراء المكالمة غرامة قدرها 6 ملايين دولار و13 تهمة جناية.
لقد كانت لحظة مميزة، ويرجع ذلك جزئيًا إلى أنها لم تتكرر.
قال بروس شناير، المحاضر المساعد في الشؤون العامة، إن الذكاء الاصطناعي لم يكن السبب وراء انتشار روايتين مضللتين كبيرتين في الأسابيع التي سبقت يوم الانتخابات – الادعاءات الملفقة بشأن أكل الحيوانات الأليفة والأكاذيب حول جهود الإغاثة التي بذلتها الوكالة الفيدرالية لإدارة الطوارئ في أعقاب إعصاري ميلتون وهيلين. السياسة في كلية كينيدي بجامعة هارفارد.
قال دانييل شيف: “لقد شهدنا استخدام التزييف العميق لإثارة العداء الحزبي بشكل فعال على ما يبدو، مما يساعد في ترسيخ أو ترسيخ بعض الآراء المضللة أو الكاذبة تجاه المرشحين”.
لقد عمل مع كايلين شيف، الأستاذ المساعد للعلوم السياسية في جامعة بوردو، وكريستينا ووكر، مرشحة الدكتوراه في جامعة بوردو، لإنشاء قاعدة بيانات للتزييف السياسي العميق.
وأظهرت البيانات أن غالبية حوادث التزييف العميق تم إنشاؤها على أنها هجاء. وخلف ذلك كانت هناك عمليات تزييف عميقة تهدف إلى الإضرار بسمعة شخص ما. والثالث هو التزييف العميق الأكثر شيوعًا والذي تم إنشاؤه للترفيه.
وقال دانييل شيف إن التزييف العميق الذي انتقد أو ضلّل الناس بشأن المرشحين كان “امتدادات للروايات السياسية الأمريكية التقليدية”، مثل تلك التي تصور هاريس على أنه شيوعي أو مهرج، أو ترامب على أنه فاشي أو مجرم. واتفق تشانغ مع دانييل شيف، قائلا إن الذكاء الاصطناعي التوليدي “أدى إلى تفاقم الانقسامات السياسية القائمة، ليس بالضرورة بقصد التضليل ولكن من خلال المبالغة”.
اعتمدت عمليات التأثير الأجنبي الكبرى على الجهات الفاعلة، وليس الذكاء الاصطناعي
وحذر الباحثون في عام 2023 من أن الذكاء الاصطناعي يمكن أن يساعد الخصوم الأجانب على إجراء عمليات التأثير بشكل أسرع وأرخص. وقال مركز التأثير الأجنبي الخبيث – الذي يقوم بتقييم أنشطة التأثير الأجنبي التي تستهدف الولايات المتحدة – في أواخر سبتمبر/أيلول إن الذكاء الاصطناعي لم يحدث “ثورة” في تلك الجهود.
وقال المركز إنه من أجل تهديد الانتخابات الأمريكية، سيتعين على الجهات الفاعلة الأجنبية التغلب على القيود التي تفرضها أدوات الذكاء الاصطناعي، والتهرب من الكشف و”استهداف ونشر مثل هذا المحتوى بشكل استراتيجي”.
وقد أشارت وكالات الاستخبارات – بما في ذلك مكتب مدير الاستخبارات الوطنية ومكتب التحقيقات الفيدرالي ووكالة الأمن السيبراني وأمن البنية التحتية – إلى عمليات النفوذ الأجنبي، لكن تلك الجهود استخدمت في كثير من الأحيان ممثلين في مقاطع فيديو مفبركة. وأظهر مقطع فيديو امرأة زعمت أن هاريس ضربها وأصابها في حادث سيارة صدمها وهرب. وكانت رواية الفيديو “ملفقة بالكامل”، ولكن ليس الذكاء الاصطناعي. وربط المحللون الفيديو بشبكة روسية أطلقوا عليها اسم Storm-1516، والتي استخدمت تكتيكات مماثلة في مقاطع الفيديو التي سعت إلى تقويض الثقة في الانتخابات في بنسلفانيا وجورجيا.
من المحتمل أن تكون ضمانات النظام الأساسي وتشريعات الولاية قد ساعدت في الحد من “أسوأ السلوكيات”
سعت وسائل التواصل الاجتماعي ومنصات الذكاء الاصطناعي إلى زيادة صعوبة استخدام أدواتها لنشر محتوى سياسي ضار، وذلك عن طريق إضافة علامات مائية وملصقات وتدقيق الحقائق إلى الادعاءات.
قال كل من Meta AI وOpenAI إن أدواتهما رفضت مئات الآلاف من الطلبات لإنشاء صور الذكاء الاصطناعي لترامب وبايدن وهاريس وفانس والمرشح الديمقراطي لمنصب نائب الرئيس حاكم مينيسوتا تيم فالز. وفي تقرير صدر في 3 كانون الأول (ديسمبر) حول الانتخابات العالمية في عام 2024، قال رئيس ميتا للشؤون العالمية، نيك كليج، إن “التقييمات على محتوى الذكاء الاصطناعي المتعلق بالانتخابات والسياسة والموضوعات الاجتماعية تمثل أقل من 1 بالمائة من جميع المعلومات الخاطئة التي تم التحقق منها”.
ومع ذلك، كانت هناك أوجه قصور.
وجدت صحيفة واشنطن بوست أنه عندما طُلب من ذلك، ظل ChatGPT يكتب رسائل الحملة التي تستهدف ناخبين محددين. ووجدت PolitiFact أيضًا أن Meta AI أنتجت بسهولة صورًا يمكن أن تدعم السرد القائل بأن الهايتيين كانوا يأكلون الحيوانات الأليفة.
وقال دانييل شيف إن المنصات أمامها طريق طويل للأمام مع تحسن تكنولوجيا الذكاء الاصطناعي. ولكن على الأقل في عام 2024، يبدو أن الاحتياطات التي اتخذوها والجهود التشريعية التي بذلتها الولايات قد أتت بثمارها.
قال شيف: “أعتقد أن استراتيجيات مثل الكشف عن التزييف العميق، وجهود زيادة الوعي العام، فضلاً عن الحظر المباشر، كلها مهمة”.