يحذر المستشار رقم 10 من أن الذكاء الاصطناعي يمكن أن يكون قويًا بما يكفي لقتل العديد من البشر في غضون عامين

فريق التحرير

قال مات كليفورد ، الذي يساعد رئيس الوزراء في تشكيل فريق العمل الحكومي للذكاء الاصطناعي ، إن صانعي السياسة يجب أن يكونوا مستعدين لتهديدات مثل الهجمات الإلكترونية أو إنشاء أسلحة بيولوجية

حذر المستشار التقني لريشي سوناك من أن أنظمة الذكاء الاصطناعي يمكن أن تكون قوية بما يكفي “لقتل العديد من البشر” في غضون عامين فقط.

قال مات كليفورد ، الذي يساعد رئيس الوزراء في تشكيل فريق عمل الذكاء الاصطناعي التابع للحكومة ، إن صانعي السياسة يجب أن يكونوا مستعدين لتهديدات مثل الهجمات الإلكترونية أو إنشاء أسلحة بيولوجية.

وحذر من الحاجة التي يفشل فيها الجنس البشري في إيجاد طريقة للتحكم في التوسع التكنولوجي ، قائلاً لـ TalkTV: “يمكن أن يكون لديك بالفعل تهديدات خطيرة جدًا على البشر يمكن أن تقتل العديد من البشر ، وليس جميع البشر ، ببساطة من حيث نتوقع أن تكون النماذج. خلال سنتين.

“نوع الخطر الوجودي الذي أعتقد أن كتاب الرسائل يتحدثون عنه – ماذا يحدث بمجرد أن نخلق نوعًا جديدًا بشكل فعال ، أنت تعرف ذكاء أكبر من البشر.”

قال كليفورد ، الذي يرأس وكالة الأبحاث المتقدمة والاختراع الحكومية (أريا) ، إن هذا “يبدو وكأنه حبكة فيلم” لكنه كان مصدر قلق حقيقي.

وأضاف: “إذا حاولنا إنشاء ذكاء اصطناعي أكثر ذكاءً من البشر ولا نعرف كيف نتحكم فيه ، فسيؤدي ذلك إلى خلق إمكانية لجميع أنواع المخاطر الآن وفي المستقبل – من الصحيح أنه يجب أن تكون عالية جدًا في جداول أعمال صانعي السياسات “.

يأتي ذلك في الوقت الذي تحرص فيه ريشي سوناك على الترويج للمملكة المتحدة كمحور محتمل لمنظم عالمي مستقبلي ، على غرار الهيئة النووية للوكالة الدولية للطاقة الذرية.

وقال إن ما يثير قلقه بشأن الوضع الحالي هو أن “الأشخاص الذين يبنون الأنظمة الأكثر قدرة يعترفون بحرية أنهم لا يفهمون بالضبط كيف يعرضون السلوكيات التي يقومون بها”. عندما سئل عما إذا كان هذا “مرعبا للغاية” ، أجاب السيد كليفورد: “بالتأكيد”.

ومع ذلك ، قال السيد كليفورد إن الذكاء الاصطناعي لديه أيضًا القدرة على أن يكون قوة ساحقة من أجل الخير – بشرط أن نجد طرقًا للسيطرة عليه. “إذا سارت الأمور بشكل صحيح. . . يمكنك أن تتخيل أن الذكاء الاصطناعي يعالج الأمراض ، مما يجعل الاقتصاد أكثر إنتاجية ، ويساعدنا في الوصول إلى اقتصاد خالٍ من الكربون “.

كتب أرفيند نارايانان ، أستاذ علوم الكمبيوتر في جامعة برينستون ، الأسبوع الماضي: “يشير تاريخ التكنولوجيا حتى الآن إلى أن أكبر المخاطر لا تأتي من التكنولوجيا نفسها ، ولكن من الأشخاص الذين يتحكمون في التكنولوجيا التي يستخدمونها لمراكمة القوة والثروة.

“يجب أن نكون حذرين من Prometheans الذين يريدون الاستفادة من جلب النار للناس ، وأن نكون موثوقين كرجال إطفاء.”

يعتقد البعض الآخر أن أصوات علماء الكمبيوتر البارزين ، مثل جيفري هينتون ويوشوا بينجيو ، وهما اثنان من “عرابين” الذكاء الاصطناعي الذين حذروا مؤخرًا من تهديدات التكنولوجيا ، يتم التعامل معها على أنها “علماء أبطال”.

قال كيونغ هيون تشو ، الباحث البارز في مجال الذكاء الاصطناعي والأستاذ المساعد في جامعة نيويورك ، لـ Venture Beat: “أعتقد أننا نرى الجانب السلبي للعالم البطل.

“إنهم جميعًا مجرد أفراد. يمكن أن يكون لديهم أفكار مختلفة. بالطبع ، أنا أحترمهم وأعتقد أن هذه هي الطريقة التي يعمل بها المجتمع العلمي دائمًا. لدينا دائمًا آراء مخالفة. ولكن الآن عبادة البطل هذه ، جنبًا إلى جنب مع حكم القضاء على الذكاء الاصطناعي العام. . لا أعرف ، الكثير بالنسبة لي لمتابعة “.

قال عظيم أزهر ، خبير الصناعة في مجموعة البحث Exponential View ، في رسالته الإخبارية: “إن مجرد كون الناس خبراء في البحث الأساسي للشبكات العصبية لا يجعلهم متنبئين عظماء ، لا سيما عندما يتعلق الأمر بالأسئلة المجتمعية أو الأسئلة المتعلقة بالاقتصاد. ، أو أسئلة الجغرافيا السياسية “.

شارك المقال
اترك تعليقك