حذر ريشي سناك من أن منظمة العفو الدولية عنصرية أو متحيزة ضد المرأة هي خطر مباشر وليس انقراض الإنسان

فريق التحرير

حصري:

حذر خبير في أخلاقيات الذكاء الاصطناعي رئيس الوزراء من التركيز على المخاطر “الحقيقية” للذكاء الاصطناعي ، بما في ذلك كيف يمكن أن يعني استخدامه في الأنظمة الصحية أن العلاج متحيز تجاه الأشخاص ذوي البشرة البيضاء أو الرجال.

حذر خبير بارز في منظمة العفو الدولية ريشي سوناك من التركيز على المخاطر “الحقيقية” لكون التكنولوجيا عنصرية أو متحيزة جنسياً أو معادية للمثليين بدلاً من التهديدات “بعيدة المنال” التي يمكن أن تجعل البشر ينقرضون.

حث الدكتور مهيري أيتكين ، زميل أخلاقيات الذكاء الاصطناعي في معهد آلان تورينج ، رئيس الوزراء على عدم السماح لشركات التكنولوجيا الكبرى من وادي السيليكون بقيادة المناقشات حول الذكاء الاصطناعي.

وقالت إنه كان هناك اتجاه مقلق للابتعاد عن المخاطر “الحقيقية للغاية” للذكاء الاصطناعي من خلال استخدام مخاطر “افتراضية بعيدة المنال” حول الذكاء الاصطناعي.

وتأتي تعليقاتها في أعقاب تحذير “مثير” من شركات من بينها OpenAI ، التي طورت Chat GPT و Google DeepMind التي قالت إن الذكاء الاصطناعي يمكن أن يؤدي إلى انقراض الإنسان.

وقعت مجموعة من شركات التكنولوجيا الكبرى على خطاب الشهر الماضي يجادل بأن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.

في مقابلة مع The Mirror ، قال الدكتور أيتكين: “هناك أسباب تدفع التكنولوجيا الكبيرة لهذه الرواية ، وذلك لأنه من مصلحتها صرف الانتباه عن المخاطر الحقيقية للذكاء الاصطناعي اليوم”.

وأوضحت أن هناك “جهودًا مدروسة لجعل الذكاء الاصطناعي يبدو أكثر تعقيدًا” لخلق الانطباع بأن شركات التكنولوجيا الكبرى هي الوحيدة التي يمكنها تفسير ذلك.

وقالت: “هذه الحجج تتعلق جزئيًا بمحاولة إغلاق النقاش العام”.

قال الدكتور آيتكين ، المتخصص في السياسة العامة للذكاء الاصطناعي ، إننا بحاجة إلى التركيز على “التأثيرات الملموسة” التي تحدثها الذكاء الاصطناعي الآن.

نماذج الذكاء الاصطناعي مليئة بالتحيزات. لقد تم تدريبهم على مجموعات البيانات التي تحتوي على الكثير من التحيز ومن ثم ينتجون مخرجات متحيزة ومخرجات ضارة ومخرجات تحتوي على قوالب نمطية.

“لقد رأينا أشياء مثل Chat GPT تُستخدم لتقديم المشورة لمرضى الصحة العقلية الذين يعانون من اضطرابات الأكل. هذه أشياء خطيرة حقًا ونحتاج إلى النظر في المخاطر وسلامة استخدامها في هذه السياقات.

“نحتاج أيضًا إلى النظر في كيفية إنشاء معلومات خاطئة أو أخبار مزيفة ، أو كيف يمكن استخدام الذكاء الاصطناعي لعمل صور أو أصوات واقعية.”

ومن الأمثلة الأخرى التي سردتها حيث يمكن أن تسبب تحيزات الذكاء الاصطناعي ضررًا في الأنظمة الصحية حيث تكون النماذج متحيزة تجاه الأشخاص ذوي البشرة البيضاء أو الرجال.

وبالمثل ، قالت إن الذكاء الاصطناعي المستخدم في قوات الشرطة ثبت أنه ينفذ تحيزات الشرطة العنصرية القائمة.

وأضافت ، بالمثل ، هناك أمثلة لمنصات توليد الصور التي تنشئ صورًا جنسية للنساء وليس الرجال لأن الذكاء الاصطناعي يستخدم مجموعات البيانات الموجودة للنساء على الإنترنت.

شجع الدكتور أيتكين رئيس الوزراء ، الذي يستضيف أول قمة عالمية للذكاء الاصطناعي هذا الخريف ، على تضمين أدلة من المجتمعات المتأثرة.

تضمن البيان الصحفي الذي أصدرته الحكومة في القمة تعليقات فقط من شركات التكنولوجيا الكبرى مثل Anthropic و Google DeepMind و Palantir.

وحثت الدكتورة أيتكين على توخي الحذر لأنها قالت إن شركات التكنولوجيا الكبرى مدفوعة “بالقدرة التنافسية التجارية” ، مشيرة إلى أن Chat GPT قد تم طرحها على الفور للجمهور دون معرفة مخاطرها.

“تحتاج القمة إلى جلب الأشخاص الذين عملوا على أخلاقيات الذكاء الاصطناعي لسنوات عديدة – والذين كانوا غائبين في البيان الصحفي. من المثير للقلق أن شركات التكنولوجيا الكبيرة هي التي تشكل هذه المناقشات لأن لديها المنصات الكبيرة للصراخ منها “، قالت.

“آمل حقًا أن تركز القمة العالمية للذكاء الاصطناعي ، عند حدوثها ، على أصوات منظمات المجتمع المدني والمجتمعات المتأثرة والباحثين الذين عملوا في هذا المجال لفترة طويلة.

“إذا كان الأمر كذلك ، فقد تكون هذه فرصة رائعة لتطوير هذا المجال حقًا ، ولكن إذا كان يركز حقًا على وجهات نظر شركات التكنولوجيا الكبرى ويعطيها الأولوية ، فسيكون ذلك مصدر قلق كبير حقًا.”

* اتبع سياسة المرآة سناب شات و تيك توك و تويتر و فيسبوك .

شارك المقال
اترك تعليقك