يقول التقرير إن شركات التكنولوجيا تفشل في “السير على الطريق” فيما يتعلق بالذكاء الاصطناعي الأخلاقي

فريق التحرير

يقول باحثون من جامعة ستانفورد إن ممارسي أخلاقيات الذكاء الاصطناعي أفادوا عن افتقارهم إلى الدعم المؤسسي في شركاتهم.

فشلت شركات التكنولوجيا التي وعدت بدعم التطوير الأخلاقي للذكاء الاصطناعي (AI) في الوفاء بتعهداتها، حيث تأخذ السلامة مقعدًا خلفيًا لمقاييس الأداء وإطلاق المنتجات، وفقًا لتقرير جديد صادر عن باحثين من جامعة ستانفورد.

على الرغم من نشر مبادئ الذكاء الاصطناعي وتوظيف علماء الاجتماع والمهندسين لإجراء البحوث وتطوير الحلول التقنية المتعلقة بأخلاقيات الذكاء الاصطناعي، فإن العديد من الشركات الخاصة لم تعطي الأولوية بعد لاعتماد الضمانات الأخلاقية، حسبما قال معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان في التقرير الذي صدر يوم الخميس. .

وقال الباحثون سانا جيه علي وأنجيل كريستين وأندرو سمارت وريتا كاتيلا في التقرير الذي يحمل عنوان “المشي”: “إن الشركات غالبًا ما تتحدث عن أخلاقيات الذكاء الاصطناعي ولكنها نادرًا ما تسير على الطريق الصحيح من خلال توفير الموارد الكافية وتمكين الفرق التي تعمل على الذكاء الاصطناعي المسؤول”. مسيرة أخلاقيات الذكاء الاصطناعي في شركات التكنولوجيا.

وبالاستناد إلى تجارب 25 من “الممارسين في أخلاقيات الذكاء الاصطناعي”، ذكر التقرير أن العاملين المشاركين في تعزيز أخلاقيات الذكاء الاصطناعي اشتكوا من الافتقار إلى الدعم المؤسسي وعزلهم عن الفرق الأخرى داخل المنظمات الكبيرة على الرغم من الوعود بعكس ذلك.

وذكر التقرير أن الموظفين أبلغوا عن ثقافة اللامبالاة أو العداء بسبب مديري المنتجات الذين يرون أن عملهم يضر بإنتاجية الشركة أو إيراداتها أو الجدول الزمني لإطلاق المنتج.

قال أحد الأشخاص الذين شملهم الاستطلاع من أجل التقرير: “إن الحديث بصوت عالٍ للغاية بشأن وضع المزيد من المكابح (تطوير الذكاء الاصطناعي) كان أمرًا محفوفًا بالمخاطر”. “لم يتم تضمينه في هذه العملية.”

ولم يذكر التقرير الشركات التي يعمل فيها الموظفون الذين شملهم الاستطلاع.

وقد أعربت الحكومات والأكاديميون عن مخاوفهم بشأن سرعة تطور الذكاء الاصطناعي، حيث تمس المسائل الأخلاقية كل شيء من استخدام البيانات الخاصة إلى التمييز العنصري وانتهاك حقوق الطبع والنشر.

وقد تزايدت هذه المخاوف منذ إطلاق شركة OpenAI لبرنامج ChatGPT العام الماضي، وما تلا ذلك من تطوير لمنصات منافسة مثل Gemini من Google.

أخبر الموظفون باحثي جامعة ستانفورد أن القضايا الأخلاقية لا يتم النظر فيها غالبًا إلا في وقت متأخر جدًا من اللعبة، مما يجعل من الصعب إجراء تعديلات على التطبيقات أو البرامج الجديدة، وأن الاعتبارات الأخلاقية غالبًا ما تتعطل بسبب إعادة تنظيم الفرق بشكل متكرر.

وقال التقرير: “إن المقاييس المتعلقة بالتفاعل أو أداء نماذج الذكاء الاصطناعي تحظى بأولوية عالية لدرجة أن التوصيات المتعلقة بالأخلاقيات والتي قد تؤثر سلبًا على تلك المقاييس تتطلب أدلة كمية لا يمكن دحضها”.

“ومع ذلك، من الصعب الحصول على مقاييس كمية للأخلاقيات أو العدالة، ويصعب تحديدها نظرًا لأن البنى التحتية الحالية للبيانات لدى الشركات ليست مصممة خصيصًا لمثل هذه المقاييس”.

شارك المقال
اترك تعليقك