أعلن Openai عن خطط لإدخال ضوابط الوالدين لـ ChatGPT وسط جدل متزايد حول كيفية تأثير الذكاء الاصطناعي على الصحة العقلية للشباب.
في منشور مدونة يوم الثلاثاء ، قالت شركة الذكاء الاصطناعى ومقرها كاليفورنيا إنها تم طرح الميزات التي تقديرا للعائلات التي تحتاج إلى دعم “في وضع إرشادات صحية تناسب مرحلة التطوير الفريدة للمراهقين”.
بموجب التغييرات ، سيتمكن أولياء الأمور من ربط حسابات ChatGPT الخاصة بهم مع حسابات أطفالهم ، وتعطيل ميزات معينة ، بما في ذلك سجل الذاكرة والدردشة ، والتحكم في كيفية استجابة chatbot للاستعلامات من خلال “قواعد السلوك النموذجية المناسبة للعمر”.
وقال Openai إن الآباء سيكونون قادرين أيضًا على تلقي الإخطارات عندما يظهر المراهقون علامات على الضيق ، مضيفًا أنه سيبحث عن مدخلات خبراء في تنفيذ “دعم الثقة بين الآباء والمراهقين”.
وقال Openai ، الذي أعلن الأسبوع الماضي عن سلسلة من التدابير التي تهدف إلى تعزيز السلامة للمستخدمين الضعفاء ، إن التغييرات ستدخل حيز التنفيذ خلال الشهر المقبل.
“هذه الخطوات ليست سوى البداية” ، قالت الشركة.
“سنواصل التعلم وتعزيز نهجنا ، يسترشدون من قبل الخبراء ، بهدف جعل ChatGPT مفيدًا قدر الإمكان. نتطلع إلى مشاركة تقدمنا خلال الـ 120 يومًا المقبلة.”
يأتي إعلان Openai بعد أسبوع من رفع زوجين من كاليفورنيا دعوى قضائية تتهم شركة المسؤولية في انتحار ابنهما البالغ من العمر 16 عامًا.
يزعم مات وماريا رين في بدلتهما أن شاتغبت قد صادقة على “أفكار ابنهما الأكثر ضررًا وتدمير الذات” وأن موته كان “نتيجة يمكن التنبؤ بها لخيارات التصميم المتعمدة”.
لم يذكر Openai ، الذي أعرب سابقًا عن تعازيه بسبب وفاة المراهق ، القضية بشكل صريح في إعلانها عن ضوابط الوالدين.
رفض جاي إيدلسون ، المحامي الذي يمثل عائلة رين في دعوى قضائية ، التغييرات المخطط لها في Openai كمحاولة “لتغيير النقاش”.
وقال إيدلسون في بيان “يقولون إن المنتج يجب أن يكون أكثر حساسية للأشخاص الذين يعانون من الأزمات ، وأن يكون أكثر” مفيدة “، ويظهرون” تعاطفًا “أكثر قليلاً ، وسيقوم الخبراء باكتشاف ذلك”.
“نحن نتفهم ، من الناحية الاستراتيجية ، لماذا يريدون ذلك: لا يمكن لـ Openai الرد على ما حدث بالفعل لآدم. نظرًا لأن قضية آدم لا تتعلق بفشل Chatgpt في أن تكون” مفيدة ” – إنه يتعلق بمنتج قام بتدريب مراهق بنشاط على الانتحار”.
كان استخدام نماذج الذكاء الاصطناعى من قبل الأشخاص الذين يعانون من ضائقة عقلية شديدة هو محور الاهتمام المتزايد وسط تبنيهم على نطاق واسع كمعالج أو صديق.
في دراسة نشرت في خدمات الطب النفسي الشهر الماضي ، وجد الباحثون أن ChatGpt و Google Gemini و Claud من الأنثروبور يتبعون أفضل الممارسات السريرية عند الإجابة على أسئلة عالية الخطورة حول الانتحار ، لكنهم كانوا غير متناسقين عند الرد على الاستفسارات مما يطرح “مستويات وسيطة من المخاطر”.
وقال المؤلفون: “تشير هذه النتائج إلى الحاجة إلى مزيد من التنقيح للتأكد من أن LLMs يمكن استخدامها بأمان وفعالية لتوزيع معلومات الصحة العقلية ، وخاصة في سيناريوهات المخاطر العالية التي تنطوي على التفكير الانتحاري”.
رحب هاميلتون مورين ، وهو طبيب نفسي في كلية كينغز كوليدج في لندن ، والذي أجرى أبحاثًا حول الذهان المرتبط بالنيابة ، قرار أوب أوفاي بتقديم ضوابط الوالدين ، قائلاً إنها قد تقلل من خطر الإفراط في الاعتماد أو التعرض للمحتوى الضار.
“ومع ذلك ، ينبغي اعتبار الضوابط الوالدية جزءًا واحدًا من مجموعة أوسع من الضمانات بدلاً من حل في حد ذاتها. على نطاق واسع ، أود أن أقول إن استجابة صناعة التكنولوجيا لمخاطر الصحة العقلية كانت غالبًا ما تكون تفاعلية وليست استباقية” ، قال مورين جزيرة.
“هناك تقدم ، لكن يمكن للشركات أن تذهب أبعد من ذلك بالتعاون مع الأطباء والباحثين ومجموعات الخبرة في البناء لبناء أنظمة بأمان في صميمها منذ البداية ، بدلاً من الاعتماد على التدابير المضافة بعد رفع المخاوف.”
إذا كنت أنت أو أي شخص تعرفه معرضًا لخطر الانتحار ، فقد تكون هذه المنظمات قادرة على المساعدة.