تنبؤ “الجميع” من الذكاء الاصطناع

فريق التحرير

حذر أعضاء مجموعة مراقبة منظمة العفو الدولية في كتاب جديد من أن الأنظمة الحسابية يمكن أن تصبح في نهاية المطاف مدركة لذات

وادعى الباحثون أن الذكاء الاصطناعي ذو القوة العظمى يمكن أن يؤدي إلى انقراض البشرية في غضون بضع سنوات فقط.

انضم باحثو مخاطر الذكاء الاصطناعى معًا لإصدار تحذير عاجل حول مستقبل الذكاء الاصطناعى في كتاب جديد بعنوان إذا قام أي شخص ببناءها ، فإن الجميع يموت ، مدعيا تكرارًا مخيفًا للتكنولوجيا المتقدمة بالفعل ، يمكن أن يصل بسرور. يدعون إن Superintelligence الاصطناعي (ASI) هو فقط من سنتين إلى خمس سنوات من التنمية ، وأنه يتهجى Doom for Humanity.

عند وصولها ، ادعوا بشكل مثير أن “كل شخص ، في كل مكان على الأرض ، سيموتون” ، وحذروا الناس الذين يتعرضون للبحث عن البحث ، يجب أن ينضموا إلى الدعوة للتوقف مؤقتًا “بأسرع ما يمكن أن نكون ضروريين”.

اقرأ المزيد: يحتضن كيم جونغ أون منظمة العفو الدولية كما رأيت مع طائرات بدون تقنية في مقطع كوريا الشمالية الجديدةاقرأ المزيد: يمكن أن تتنبأ أداة الذكاء الاصطناعى بخطر الإصابة بسرطان أو نوبة قلبية في العشرين عامًا القادمة

ASI ، وهو مفهوم متجذر في الخيال العلمي ، هو منظمة العفو الدولية متقدمة تقنيًا لدرجة أنها ستصبح قادرة على الابتكار والتحليل واتخاذ القرارات على مستوى لا يمكن أن يكون على البشر. ظهرت الآلات التي تغذيها ASI كأشرار في الأفلام البارزة والبرامج التلفزيونية ، بما في ذلك سلسلة Terminator ، 2001: A Space Odyssey ، و X Files.

يعتقد Eliezer Yudkowsky ، مؤسس معهد أبحاث الذكاء الآلي (MIRI) ورئيسها Nate Soares ، الذين شاركوا في تأليف الكتاب ، أن ASI قد “تم تطويره في غضون عامين أو خمس سنوات ، وسندهش إذا كان لا يزال على بعد أكثر من عشرين عامًا”.

لقد ادعوا أنه يمكن تطويره في غضون عامين أو خمس سنوات ، وسندهش إذا كان لا يزال على بعد أكثر من 20 عامًا “، وحذروا من أي تطور لإنقاذ الإنسانية. في مقطع واحد ، قالت المجموعة من الذكاء الاصطناعى المتقدمة استنادًا إلى “أي شيء مثل الفهم الحالي لمنظمة العفو الدولية” سوف يمحو الحياة على الأرض.

لقد كتبوا: “إذا كانت أي شركة أو مجموعة ، في أي مكان على هذا الكوكب ، تبني سوبرًا اصطناعيًا باستخدام أي شيء عن بعد مثل التقنيات الحالية ، استنادًا إلى أي شيء عن بعد مثل الفهم الحالي لمنظمة العفو الدولية ، فإن الجميع ، في كل مكان على وجه الأرض ، سيموت”.

يجادل الزوجان بأن الذكاء الاصطناعى لن يوفر “معركة عادلة” وتنفذ “أساليب الاستحواذ” المتعددة. لقد كتبوا: “إن الخصم الممتاز لن يكشف عن قدراته الكاملة ويلقيته عن نواياه. لن تقدم معركة عادلة.

“سيجعل نفسه لا غنى عنه أو لا يمكن اكتشافه حتى يمكن أن يضرب بشكل حاسم و/أو الاستيلاء على موقف استراتيجي لا يمكن توفيره. إذا لزم الأمر ، يمكن لـ ASI التفكير في أن تنقرض ، ومحاولة العديد من أساليب الاستحواذ في وقت واحد.

وقال المؤلفان في منشور على موقع MIRI على مدار الساعة ، مدعيا أن مختبرات الذكاء الاصطناعى قد بدأت بالفعل “طرح الأنظمة التي لا يفهمونها”. بمجرد أن تصبح هذه AIS ذكية بما فيه الكفاية ، ادعى الباحثون أن “أكثر ذكاء بما فيه الكفاية” من المجموعة يمكن أن “تطوير أهداف مستمرة خاصة بهم”.

لقد جادل مؤيدو الذكاء الاصطناعى منذ فترة طويلة أنه من الممكن تقديم ضمانات من شأنها أن تجعل من المستحيل على الأنظمة الحسابية أن تتطور إلى حد يمكنهم تشكيل تهديد للبشرية.

تم إنشاء مراقبة متعددة لضمان الالتزام بالمطورين بالقواعد ، ولكن من المحتمل أن يكون بعضها قد وجد أن ضمانات يمكن كسرها بسهولة. في عام 2024 ، قال معهد السلامة من الذكاء الاصطناعى في المملكة المتحدة إنه قادر على تجاوز الضمانات التي تم إعدادها لصالح AIS التي تعمل بزادة LLM ، مثل ChatGPT والحصول على مساعدة من “المهام ذات الاستخدام المزدوج” ، والتي تنطوي على استخدام نماذج لأغراض عسكرية ومدنية ، “على الفور”.

وقالت المجموعة: “باستخدام تقنيات الطالب الأساسية ، تمكن المستخدمون من كسر ضمانات LLM على الفور ، وحصل على مساعدة لمهمة الاستخدام المزدوج.”

شارك المقال
اترك تعليقك