قد يبدو الأمر وكأنه شيء من إحدى حلقات Netflix Black Mirror، لكن مقاطع الفيديو المزيفة العميقة أصبحت الآن أسهل من أي وقت مضى، كما أصبح من الصعب اكتشاف أنها غير حقيقية.
مع التقدم في الذكاء الاصطناعي الذي يمهد الطريق للمستقبل، فإن أحد الجوانب المثيرة للقلق هو زيادة مقاطع الفيديو المزيفة وظهور “التزييف العميق” عبر الإنترنت.
أصبح من الصعب بشكل متزايد معرفة الفرق بين الصور ومقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والصور ومقاطع الفيديو الواقعية والتي يمكن أن تكون مصدر قلق لسلامة الأشخاص.
هناك مقاطع فيديو تم إنشاؤها بواسطة الذكاء الاصطناعي تظهر في جميع أنحاء TikTok للمشاهير والشخصيات البارزة التي تبدو واقعية بشكل مخيف. من جيك بول إلى توباك وروبن ويليامز، إنها أشياء مخيفة جدًا تثير الآن مخاوف العالم الحقيقي. يوصي الأشخاص الآن عائلاتهم وأصدقائهم بالموافقة على “الكلمات الآمنة” وكلمات المرور الشخصية الخاصة بهم للمساعدة في الحماية من عمليات احتيال انتحال الشخصية.
اقرأ المزيد: “لقد تناولت العشاء مثل سيدة في Downton Abbey في The Ivy – هناك شيء واحد لم يكن بإمكاني فعله أبدًا”اقرأ المزيد: يلجأ الجيل Z إلى النجوم لتوجيه حياتهم العاطفية، وهذا هو السبب
يعد تهديد التزييف العميق أمرًا مقلقًا للغاية، حيث يقوم المحتالون المستهدفون باستنساخ الأشخاص وأصواتهم، وإنشاء مكالمات فيديو مزيفة للمطالبة بالمال بعد ذلك – وهو ما يمكن أن يؤدي بعد ذلك إلى عواقب وخيمة على الضحايا.
تنتشر الخطوط غير الواضحة بين ما هو حقيقي وما هو مزيف، وقد شارك أحد مستخدمي TikToker، والذي يحمل اسم @chelseaexplainsitall، مدى سهولة التلاعب وإنشاء مقاطع الفيديو المزيفة هذه. لقد شاركت TikTok لنفسها باستخدام تطبيق الفيديو OpenAI، Sora، وهو عبارة عن منصة لتحويل النص إلى فيديو لإنشاء مقاطع فيديو واقعية.
حصل Sora حاليًا على أكثر من مليون عملية تنزيل وهو موجود في الجزء العلوي من متجر تطبيقات iOS. يمكن للمستخدمين إنشاء مقطع فيديو قصير في أقل من دقيقة لأشخاص في مواقف لم يسبق لهم أن تعرضوا لها.
لمزيد من القصص المشابهة، اشترك في نشرتنا الإخبارية الأسبوعية، The Weekly Gulp، للحصول على ملخص منسق للقصص الرائجة والمقابلات المؤثرة واختيارات نمط الحياة الفيروسية من فريق The Mirror’s Audience U35 والتي يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك.
وبعد تجربة التطبيق، حث تشيلسي الناس: “أنت وعائلتك بحاجة إلى كلمة آمنة”. على الرغم من أن مقاطع الفيديو المزيفة هذه يمكن أن تحاكي صوتك ووجهك بالإضافة إلى سلوكياتك، إلا أنها لن تكون قادرة على إخفاء الكلمات السرية.
وقال تشيلسي: “هذه التزييفات العميقة مجنونة، وستكون عمليات الاحتيال جنونية”. “إنه واقعي جدًا، إنه مخيف حقًا”. وسارع الناس إلى التعليقات، ومنهم شخص قال: “يا شباب.. عندما أقول لكم. كشخص يعمل في البنوك. احموا أنفسكم وأحبائكم”.
هناك مشكلة محتملة أخرى وهي استخدام المشاهير المتوفين في مقاطع الفيديو المزيفة العميقة هذه. يشعر الخبراء بالقلق بشأن المشكلة المحتملة المتمثلة في المعلومات التاريخية الخاطئة، بالإضافة إلى الشخصيات المتوفاة التي لا يمكنها الموافقة على نماذج الذكاء الاصطناعي أو الانسحاب منها.
قال متحدث باسم OpenAI لشبكة NBC News: “على الرغم من وجود اهتمامات قوية بحرية التعبير في تصوير الشخصيات التاريخية، فإننا نعتقد أن الشخصيات العامة وعائلاتهم يجب أن يكون لديهم في النهاية سيطرة على كيفية استخدام صورهم. بالنسبة للشخصيات العامة المتوفاة مؤخرًا، يمكن للممثلين المعتمدين أو مالكي ممتلكاتهم أن يطلبوا عدم استخدام صورهم في صور Sora”.
ساعدنا على تحسين المحتوى الخاص بنا من خلال إكمال الاستبيان أدناه. نحن نحب أن نسمع منك!