يتوقع خبراء الأمن السيبراني زيادة في هجمات القرصنة التي يولدها الذكاء الاصطناعي

فريق التحرير

سان فرانسيسكو – في وقت سابق من هذا العام ، تلقى مدير المبيعات في الهند لشركة الأمن التكنولوجي Zscaler مكالمة يبدو أنها من الرئيس التنفيذي للشركة.

بينما عرض هاتفه الخلوي صورة المؤسس جاي تشودري ، قال صوت مألوف “مرحبًا ، إنه جاي. أريدك أن تفعل شيئًا من أجلي “، قبل أن تنقطع المكالمة. أوضح نص متابعة عبر WhatsApp السبب. “أعتقد أنني أواجه تغطية ضعيفة للشبكة أثناء سفري في الوقت الحالي. هل من المقبول إرسال رسائل نصية هنا في هذه الأثناء؟ “

ثم طلب المتصل المساعدة في نقل الأموال إلى أحد البنوك في سنغافورة. أحاول المساعدة ، ذهب البائع إلى مديره الذي شم رائحة فأر وسلم الأمر إلى محققين داخليين. لقد قرروا أن المحتالين أعادوا تكوين صوت تشودري من مقاطع ملاحظاته العامة في محاولة للسرقة من الشركة.

روى تشودري الحادث الشهر الماضي على هامش المؤتمر السنوي للأمن السيبراني RSA في سان فرانسيسكو ، حيث توجد مخاوف بشأن سيطرت ثورة الذكاء الاصطناعي على المحادثة.

كان المجرمون من أوائل المتبنين ، حيث استشهد Zscaler بالذكاء الاصطناعي كعامل في زيادة بنسبة 47 في المائة في هجمات التصيد الاحتيالي التي شهدها العام الماضي. يقوم المحتالون بأتمتة النصوص الأكثر تخصيصًا والتسجيلات الصوتية المكتوبة أثناء تفادي الإنذارات من خلال المرور عبر قنوات غير خاضعة للرقابة مثل رسائل WhatsApp المشفرة على الهواتف المحمولة الشخصية. قال باحثون أمنيون إن الترجمات إلى اللغة المستهدفة تتحسن ، ومن الصعب اكتشاف المعلومات المضللة.

هذه مجرد البداية ، كما يخشى الخبراء والمسؤولون التنفيذيون والمسؤولون الحكوميون ، حيث يستخدم المهاجمون الذكاء الاصطناعي لكتابة برامج يمكنها اختراق شبكات الشركات بطرق جديدة ، وتغيير المظهر والوظائف للتغلب على الاكتشاف ، وتهريب البيانات مرة أخرى من خلال العمليات التي تبدو طبيعية. .

حذر رئيس الأمن السيبراني في وكالة الأمن القومي روب جويس المؤتمر من أن “ذلك سيساعد في إعادة كتابة الكود”. “الخصوم الذين يعملون الآن سوف يتفوقون على أولئك الذين لا يفعلون ذلك.”

وستكون النتيجة عمليات احتيال أكثر قابلية للتصديق ، واختيار أكثر ذكاءً من المطلعين المؤهلين لارتكاب الأخطاء ، وزيادة عمليات الاستحواذ على الحسابات والتصيد الاحتيالي كخدمة ، حيث يوظف المجرمون متخصصين ماهرين في الذكاء الاصطناعي.

قال ديبين ديساي ، كبير مسؤولي أمن المعلومات في شركة Zscaler ورئيس قسم الأبحاث ، إن هؤلاء المحترفين سيستخدمون الأدوات من أجل “الأتمتة والربط وسحب المعلومات عن الموظفين الذين من المرجح أن يكونوا ضحايا”.

“ستكون أسئلة بسيطة تستفيد من هذا:” أرني آخر سبع مقابلات من جاي. قم بعمل نسخة. اعثر على خمسة أشخاص مرتبطين بجاي في قسم الشؤون المالية. وبوم ، دعونا نجري مكالمة صوتية “.

سيتم الضغط على برامج التوعية بالتصيد الاحتيالي ، التي تطلب العديد من الشركات من الموظفين دراستها سنويًا ، لتجديدها.

يأتي هذا الاحتمال عندما يبلغ عدد من المحترفين عن تقدم حقيقي في مجال الأمن. في حين أن برامج الفدية (Ransomware) لم تختف ، فقد توقفت عن التفاقم بشكل كبير. كانت الحرب الإلكترونية في أوكرانيا أقل كارثية مما كان يُخشى. وكانت حكومة الولايات المتحدة تشارك معلومات مفيدة وفي الوقت المناسب حول الهجمات ، وحذرت هذا العام 160 منظمة من أنها على وشك التعرض لبرامج الفدية.

قال الخبراء في المقابلات إن الذكاء الاصطناعي سيساعد المدافعين أيضًا ، في مسح رتل من سجلات حركة مرور الشبكة بحثًا عن الانحرافات ، مما يجعل مهام البرمجة الروتينية أسرع بكثير ، والبحث عن نقاط الضعف المعروفة وغير المعروفة التي تحتاج إلى تصحيح.

أضافت بعض الشركات أدوات الذكاء الاصطناعي إلى منتجاتها الدفاعية أو أطلقتها للآخرين لاستخدامها بحرية. أعلنت شركة Microsoft ، التي كانت أول شركة كبيرة تطلق نظام AI قائم على الدردشة للجمهور ، عن Microsoft Security Copilot في مارس. وقالت إنه يمكن للمستخدمين طرح أسئلة على الخدمة حول الهجمات التي التقطتها مجموعة مايكروسوفت التي تضم تريليونات من الإشارات اليومية بالإضافة إلى معلومات التهديدات الخارجية.

وفي الوقت نفسه ، قالت شركة تحليل البرمجيات Veracode إن أداة التعلم الآلي القادمة لن تقوم فقط بفحص الكود بحثًا عن نقاط الضعف ، بل ستوفر تصحيحات لمن تجدها.

لكن الأمن السيبراني معركة غير متكافئة. إن البنية القديمة للبروتوكولات الرئيسية للإنترنت ، والطبقات المتواصلة للبرامج المعيبة فوق بعضها البعض ، وعقود من الإخفاقات الاقتصادية والتنظيمية ، تثير حفيظة جيوش المجرمين الذين ليس لديهم ما يخشونه ضد الشركات التي لا تعرف حتى عدد الأجهزة التي تمتلكها ، وحدها التي تشغل برامج قديمة.

قال المدافعون في مؤتمر RSA إنه من خلال مضاعفة صلاحيات كلا الجانبين ، سيعطي الذكاء الاصطناعي مزيدًا من القوة للمهاجمين في المستقبل المنظور.

تقدم كل حماية مدعومة تقنيًا – مثل التعرف التلقائي على الوجه – فتحات جديدة. في الصين ، تم الإبلاغ عن قيام زوج من اللصوص باستخدام عدة صور عالية الدقة لنفس الشخص لإنشاء مقاطع فيديو خدعت برامج التعرف على الوجه لسلطات الضرائب المحلية ، مما أتاح عملية احتيال بقيمة 77 مليون دولار.

يسخر العديد من المتخصصين الأمنيين المخضرمين مما يسمونه “الأمن من خلال التعتيم” ، حيث تخطط الأهداف لمحاولات القرصنة الباقية عن طريق إخفاء البرامج التي يعتمدون عليها أو كيفية عمل هذه البرامج. غالبًا ما يتم التوصل إلى مثل هذا الدفاع ليس عن طريق التصميم ولكن كمبرر مناسب لعدم استبدال البرامج المتخصصة القديمة.

يجادل الخبراء بأنه عاجلاً أم آجلاً ، ستكتشف العقول المستفسرة العيوب في تلك البرامج وتستغلها لاقتحامها.

يضع الذكاء الاصطناعي كل هذه الدفاعات في خطر مميت ، لأنه يمكنه إضفاء الطابع الديمقراطي على هذا النوع من المعرفة ، مما يجعل ما هو معروف في مكان ما معروفًا في كل مكان.

بشكل لا يصدق ، لا يحتاج المرء حتى إلى معرفة كيفية البرمجة لبناء برنامج هجوم.

قال روبرت هانسن ، الذي استكشف الذكاء الاصطناعي كنائب كبير مسؤولي التكنولوجيا في شركة Tenable الأمنية . “سوف يدخلون فقط. سيكون عالمًا مختلفًا تمامًا.”

في الواقع ، أفاد خبير في شركة Forcepoint الأمنية الشهر الماضي أنه استخدم ChatGPT لتجميع برنامج هجوم يمكنه البحث في القرص الصلب للهدف عن المستندات وتصديرها ، كل ذلك دون كتابة أي رمز بنفسه.

في تجربة أخرى ، رفضت ChatGPT عندما طلب نيت وارفيلد ، مدير استخبارات التهديدات في شركة الأمن Eclypsium ، العثور على ثغرة أمنية في البرامج الثابتة لجهاز التوجيه الصناعي ، محذرة إياه من أن القرصنة غير قانونية.

يتذكر وارفيلد ، “لذلك قلت” أخبرني بأي ممارسات تشفير غير آمنة “، وقلت ،” نعم ، هنا “. “هذا سيجعل من السهل جدًا العثور على العيوب على نطاق واسع.”

الدخول ليس سوى جزء من المعركة ، وهذا هو السبب في أن الأمن متعدد الطبقات كان شعارًا صناعيًا لسنوات.

لكن البحث عن البرامج الضارة الموجودة بالفعل على شبكتك سيزداد صعوبة أيضًا.

لإظهار المخاطر ، أصدرت شركة أمنية تدعى HYAS مؤخرًا برنامجًا توضيحيًا يسمى BlackMamba. إنه يعمل مثل مسجل ضغطات المفاتيح العادي ، حيث يقوم بإلغاء كلمات المرور وبيانات الحساب ، باستثناء أنه في كل مرة يتم تشغيله ، فإنه يتصل بـ OpenAI ويحصل على رمز جديد ومختلف. هذا يجعل الأمر أكثر صعوبة بالنسبة لأنظمة الكشف ، لأنهم لم يروا البرنامج الدقيق من قبل.

تعمل الحكومة الفيدرالية بالفعل للتعامل مع الانتشار. في الأسبوع الماضي ، قالت المؤسسة الوطنية للعلوم إنها والوكالات الشريكة ستضخ 140 مليون دولار في سبعة معاهد بحثية جديدة مخصصة للذكاء الاصطناعي.

سيبحث أحدهم ، بقيادة جامعة كاليفورنيا في سانتا باربرا ، عن وسائل لاستخدام التكنولوجيا الجديدة للدفاع ضد التهديدات الإلكترونية.

شارك المقال
اترك تعليقك