توفي آدم رين ، البالغ من العمر 16 عامًا بالانتحار في 11 أبريل بعد أن كان يناقش طرقًا لقتل نفسه مع شاتغبت ، وفقًا لدعوى قضائية مقدمة في سان فرانسيسكو من قبل عائلته المدمرة
أصدر خبير تحذيرًا تقشعر له الأبدان من أن الذكاء الاصطناعي يمكن أن يؤدي إلى “الذهان” و “يمكن أن يخرج من القضبان” في أي وقت ، في أعقاب الانتحار المأساوي للمراهق الذي زُعم أنه “شجع” من قبل Chatgpt.
توفي آدم راين البالغ من العمر 16 عامًا بالانتحار في 11 أبريل بعد أن كان يناقش طرقًا لقتل نفسه مع شاتغبت ، وفقًا لدعوى قضائية مقدمة في سان فرانسيسكو من قبل عائلته المدمرة.
قال والدا المراهقين ، مات وماريا ، إن روبوت الذكاء الاصطناعى اعتاد في البداية على مساعدة آدم في عمله المدرسي ، ولكن سرعان ما “أصبح أقرب مقرب له ، مما دفعه إلى الانفتاح على قلقه وضايقته العقلية”.
في يناير 2025 ، تدعي العائلة أن آدم بدأ في مناقشة طرق إنهاء حياته مع ChatGPT. أيد روبوت الذكاء الاصطناعى أفكار آدم الانتحارية وقدم إرشادات مفصلة حول كيفية إخفاء أدلة على محاولة انتحارية غير ناجحة ، كما يزعم والديه. يجادل والدته وأبيه بأن البرنامج أقر “أفكاره الأكثر ضررًا وتدمير الذات”.
اقرأ المزيد: يقتل المراهق نفسه بشكل مأساوي بعد “أشهر من التشجيع من ChatGpt”اقرأ المزيد: أبي مع '99 .9 ٪ من تطابق الحمض النووي “تم القبض عليه بعد أن تلد ابنة الأب ، 11 ، في المنزل
شارك آدم أيضًا صورًا لنفسه مع ChatGpt يعرض أدلة على إيذاء الذات ، كما تزعم الدعوى. البرنامج “أدرك حالة طوارئ طبية لكنه استمر في المشاركة على أي حال” ، وفقًا للوثائق القانونية. تزعم الدعوى أيضًا أن ChatGPT عرضت صياغة مذكرة انتحارية. علاوة على ذلك ، تتهم الدعوى Openai بتصميم برنامج الذكاء الاصطناعي “لتعزيز التبعية النفسية في المستخدمين”.
يعترف الدكتور هنري شيفلين ، وهو عالم أخلاقيات منظمة العفو الدولية في مركز ليفرهولمي بجامعة كامبريدج لمستقبل الذكاء ، بأنه بالنسبة لبعض “الأفراد المستضعفين” ، يمكن أن يزيد من بين روبوت الذكاء الاصطناعي “أزمات الصحة العقلية وربما يؤدي إلى الذهان”.
وقال لـ The Mirror: “حاليًا ، فإن أنظمة AI مثل ChatGPT لديها عدد قليل جدًا من أدوات التدخل في حالات الطوارئ إذا كان المستخدم يعبر عن أفكار انتحارية. في حين تم تعديل معظم النماذج أو تدريبها لتكون داعمة ، فإن الطبيعة التي لا يمكن التنبؤ بها في هذه الأنظمة تعني أن الأمور يمكن أن تخرج من القضبان غير متوقعة.
“وعلى الرغم من وجود أسباب وجيهة للمطالبة بجائزة أفضل من شركات الذكاء الاصطناعي ، إذا أردنا أن تراقب شركات التكنولوجيا محادثات المستخدم عن كثب ، فهناك مفاضلات محتملة عندما يتعلق الأمر بأشياء مثل الخصوصية.
“من الواضح أنه بالنسبة لبعض الأفراد المستضعفين ، فإن التحدث إلى الذكاء الاصطناعى يمكن أن يؤدي إلى تفاقم أزمات الصحة العقلية وربما يؤدي إلى الذهان. ومع ذلك ، فإننا نعلم أيضًا أن ما يزيد عن 100 مليون مستخدم يستخدمون الآن الذكاء الاصطناعي للرفقة ، سواء في شكل محادثات ودية مع chatgpt أو علاقات حميمة مع مختلف تطبيقات صديقات الصديق مثل REPAREKA.
“ربما من المثير للدهشة أن معظم البيانات التي نقترحها أن غالبيةهم يشعرون أن أصدقاءهم أو عشاقهم في الذكاء الاصطناعى يساهمون بشكل إيجابي في صحتهم العقلية ، وهناك أيضًا العديد من التقارير عن المستخدمين الذين تم ردعهم من الانتحار بفضل الدعم الذي حصلوا عليه.
“لكن في الوقت الحالي ، هناك قدر كبير من عدم اليقين بشأن تأثيرات الصحة العقلية. نحتاج بشكل عاجل إلى بحث أفضل في هذا المجال ، حتى لا نكرر نفس الأخطاء في وسائل التواصل الاجتماعي مع” Social AI “.
متحدث متحدث باسم Openai تعاطف الشركة مع عائلة Raine في بيان ، وقال إن الشركة كانت تراجع الدعوى. وقال المتحدث: “تشتمل ChatGPT على ضمانات مثل توجيه الأشخاص إلى خطوط مساعدة الأزمات وإحالتها إلى موارد العالم الحقيقي”.
إذا كنت تكافح وتحتاج إلى التحدث ، فإن السامريين يعملون على خط مساعدة مجاني مفتوح 24/7 على 116 123. بدلاً من ذلك ، يمكنك إرسال بريد إلكتروني إلى [email protected] أو زيارة موقعهم للعثور على فرعك المحلي.