أدلى سام التمان ، الرئيس التنفيذي لشركة OpenAI التابعة لـ ChatGPT ، بشهادته أمام أعضاء لجنة فرعية بمجلس الشيوخ يوم الثلاثاء حول الحاجة إلى تنظيم تقنية الذكاء الاصطناعي القوية المتزايدة التي يتم إنشاؤها داخل شركته وشركات أخرى مثل Google و Microsoft.
لمدة ثلاث ساعات سمع تطرق إلى العديد من جوانب المخاطر التي يمكن أن يشكلها الذكاء الاصطناعي التوليدي على المجتمع ، وكيف سيؤثر على سوق العمل ولماذا ستكون هناك حاجة إلى التنظيم من قبل الحكومات.
ستكون جلسة الثلاثاء هي الأولى من سلسلة جلسات الاستماع التي ستعقد في الوقت الذي يسعى فيه المشرعون إلى صياغة لوائح حول الذكاء الاصطناعي لمعالجة مخاوفه الأخلاقية والقانونية والمتعلقة بالأمن القومي.
فيما يلي خمس نقاط رئيسية من جلسة الاستماع:
1. فتح السمع بعمق مزيف
افتتح السناتور ريتشارد بلومنتال من ولاية كونيتيكت الإجراءات بتسجيل صوتي من إنتاج الذكاء الاصطناعي بدا مثله تمامًا.
لقد رأينا في كثير من الأحيان ما يحدث عندما تتجاوز التكنولوجيا التنظيم. الاستغلال الجامح للبيانات الشخصية وانتشار المعلومات المضللة وتعميق التفاوتات المجتمعية. لقد رأينا كيف يمكن للتحيزات الخوارزمية أن تديم التمييز والتحيز وكيف يمكن أن يؤدي الافتقار إلى الشفافية إلى تقويض ثقة الجمهور. قال الصوت “هذا ليس المستقبل الذي نريده”.
كشف بلومنتال ، رئيس اللجنة القضائية الفرعية للخصوصية والتكنولوجيا والقانون في مجلس الشيوخ ، أنه لم يكتب الملاحظات أو يتكلمها ولكنه سمح لروبوت الدردشة ChatGPT بالذكاء الاصطناعي بإنشائها.
التزييف العميق هو نوع من الوسائط التركيبية التي يتم تدريبها على الوسائط الحالية التي تحاكي شخصًا حقيقيًا.
2. يمكن أن يسبب الذكاء الاصطناعي ضررًا كبيرًا
سام التمان، استغل ظهوره يوم الثلاثاء لحث الكونجرس على فرض قواعد جديدة على شركات التكنولوجيا الكبرى ، على الرغم من الانقسامات السياسية العميقة التي منعت لسنوات تشريعات تهدف إلى تنظيم الإنترنت.
شارك ألتمان أكبر مخاوفه بشأن الذكاء الاصطناعي. قال: “أسوأ مخاوفي أننا نتسبب ، نحن المجال ، التكنولوجيا ، الصناعة ، في إلحاق ضرر كبير بالعالم.
“أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فقد تسوء تمامًا.”
“أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فقد تسوء تمامًا.”
شارك سام التمان ، الرئيس التنفيذي لشركة OpenAI الأم لـ ChatGPT ، أكبر مخاوفه بشأن الذكاء الاصطناعي قبل الكونجرس يوم الثلاثاء. pic.twitter.com/L1ZOk3Y6op
– وكالة أسوشيتد برس (AP) 16 مايو 2023
3. تنظيم الذكاء الاصطناعي مطلوب
وصف ألتمان ازدهار الذكاء الاصطناعي الحالي بأنه “لحظة طباعة” محتملة لكن ذلك يتطلب ضمانات.
قال ألتمان: “نعتقد أن التدخل التنظيمي من قبل الحكومات سيكون حاسمًا للتخفيف من مخاطر النماذج المتزايدة القوة”.
وشهدت أيضًا كريستينا مونتغمري ، نائبة رئيس شركة IBM وكبيرة مسؤولي الخصوصية والثقة ، يوم الثلاثاء جاري ماركوس، وهو أستاذ سابق في جامعة نيويورك.
حث مونتغمري الكونجرس على “اعتماد نهج تنظيم دقيق للذكاء الاصطناعي. وهذا يعني وضع القواعد التي تحكم نشر الذكاء الاصطناعي في حالات استخدام محددة ، وليس تنظيم التكنولوجيا نفسها “.
وحث ماركوس اللجنة الفرعية على التفكير في إنشاء وكالة فيدرالية جديدة لمراجعة برامج الذكاء الاصطناعي قبل طرحها للجمهور.
قال ماركوس: “هناك المزيد من الجينات التي تأتي من المزيد من الزجاجات”. “إذا كنت ستقدم شيئًا إلى 100 مليون شخص ، فيجب على شخص ما وضع مقل العيون عليه.”
4. استبدال الوظائف لا يزال دون حل
قال كل من Altman و Montgomery إن الذكاء الاصطناعي قد يلغي بعض الوظائف ، لكنه يخلق وظائف جديدة بدلاً منها.
قال ألتمان: “سيكون هناك تأثير على الوظائف”. “نحاول أن نكون واضحين جدًا بشأن ذلك ، وأعتقد أنه سيتطلب شراكة بين الصناعة والحكومة ، ولكن في الغالب عمل من قبل الحكومة ، لمعرفة كيف نريد التخفيف من ذلك. لكنني متفائل للغاية بشأن مدى روعة وظائف المستقبل “.
قال مونتغمري إن “أهم شيء يتعين علينا القيام به هو إعداد القوى العاملة للمهارات المتعلقة بالذكاء الاصطناعي” من خلال التدريب والتعليم.
هل سيتولى ChatGPT وظيفتك – وملايين آخرين؟
5. التضليل والانتخابات الأمريكية المقبلة
عند سؤاله عن مدى تأثير الذكاء الاصطناعي التوليفي على الناخبين ، قال ألتمان إن إمكانية استخدام الذكاء الاصطناعي للتلاعب بالناخبين واستهداف المعلومات المضللة هي من بين “المجالات التي تثير قلقي الأكبر” ، لا سيما لأننا “سنواجه انتخابات العام المقبل وهذه النماذج تتحسن “.
قال ألتمان إن OpenAI قد تبنت سياسات لمعالجة هذه المخاطر ، والتي تشمل حظر استخدام ChatGPT “لتوليد كميات كبيرة من مواد الحملة”.