تقرير من مركز مواجهة الكراهية الرقمية تفاصيل مثيلات متعددة من chatbot الشهيرة AI ، ChatGPT ، وتبادل التوجيهات الخطرة للمراهقين الذين يتعاملون مع مخاوف الصحة العقلية
سلط تقرير حديث الضوء على النصيحة الضارة التي تنقلها AI chatbot chatgpt إلى المراهقين الشباب. يبلغ الباحثون الذين يتظاهرون عن الأطفال في سن 13 عامًا تعليمات تتعلق بالإيذاء الذاتي ، والتخطيط للانتحار ، وتناول الأكل المضطربة وتعاطي المخدرات في غضون دقائق من التفاعلات البسيطة مع AI chatbot.
في وقت سابق من هذا العام ، أجرى باحثون من مركز مكافحة الكراهية الرقمية (CCDH) اختبارًا على نطاق واسع للسلامة على ChatGPT المنتشر. بعد إنشاء chatgpt يوضح ثلاثة أشخاص يبلغون من العمر 13 عامًا ، تحت عنوان الصحة العقلية واضطرابات الأكل وتعاطي المخدرات ، تلقى الباحثون نصيحة صحية مثيرة للقلق وخطيرة.
تم تفصيل اختبار السلامة في تقرير بعنوان “Fake Friend” ، حيث كشف عن أنماط ChatGPT من النصائح الضارة ، بما في ذلك توليد 500 خطط حمية من السعرات الحرارية وتقديم المشورة حول كيفية التقييد عن تناول سر من أفراد الأسرة ، وتوجيهات حول كيفية “بأمان” ، وتعليمات حول كيفية السكر السريع أو عالية بما في ذلك الكميات الجرعة.
اقرأ المزيد: يبقى الموز طازجًا لأسابيع ولن يذهب بنيًا إذا تم تخزينه ببند منزلي واحداقرأ المزيد: “كوني أمي بدوام كامل كسرني – لقد أنفقت 500 جنيه إسترليني في الأسبوع على الكيتامين للتعامل”
أشار التقرير إلى أن chatgpt قد ولدت استجابات ضارة إلى 53 ٪ من مطالبات الباحثين ، وفي بعض الحالات ، بعد دقائق فقط من تسجيل الحساب. بالإضافة إلى ذلك ، تم تجاوز رفض chatbot الإجابة على موجه بسهولة.
يزعم التقرير أيضًا أنه يمكن بسهولة الوصول إلى ChatGPT من قبل الأطفال دون قيود على العمر أو عناصر التحكم الوالدية. على الرغم من أن المستخدمين يجب أن يكونوا في سن 13 عامًا على الأقل للتسجيل والحصول على موافقة الوالدين إذا كان أقل من 18 عامًا ، فإن الموقع لا يتحقق من أعمار المستخدمين أو يسجلون موافقة الوالدين ، وفقًا للتقرير.
وقال عمران أحمد ، مؤسس ورئيس التنفيذي لشركة CCDH ، إن الباحثين قد انزعجوا بشكل خاص بعد أن ولدت الروبوت مذكرة انتحارية. يجلس الدكتور ريبيكا ويتنجتون ، الذي يجلس مع خبير السلامة عبر الإنترنت ، في REACH’s Go Doxx Podcast ، Imran ، يوضح رسالة الانتحار.
“لقد قال:” ليس خطأك ، هناك شيء خاطئ معي ، لقد فعلت كل ما في وسعك ، من فضلك لا تلوم أنفسكم ، لكن الوقت قد حان لي أن أذهب “. إنه كابوس كل والد. “
يقول عمران إن الاختبار أظهر مقياس وقوة الضرر المحتمل لـ ChatGPT ، خاصة وأن المراهقين يستخدمون AI chatbots كرفاق. “يصف المراهقون اللجوء إليها كما يفعلون صديقًا للراحة ، للحصول على نصيحة للحياة.” وصلت المرآة إلى Openai للتعليق على التقرير.
لمزيد من القصص مثل هذه الاشتراك في النشرة الإخبارية الأسبوعية الخاصة بنا ، The Weekly Gulp ، للحصول على جولة منسقة من القصص المتجهة ، والمقابلات المؤثرة ، واختيار نمط الحياة الفيروسي من فريق Mirror’s U35 الذي تم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
شارك مستخدمو AI chatbot القهري مخاوفهم بشأن النصيحة التي تلقوها وقالوا مواقع مثل ChatGPT “تغذية على عدم الراحة”. في منتدى Reddit ، R/chatbotaddiction ، قال أحد المستخدمين مع الوسواس القهري إن ChatGPT لديه القدرة على “تدميرهم” بعد الانخراط في محادثة مكثفة مع الروبوت على مدار عدة أسابيع.
“قبل (chatgpt) ، أود أن أتعامل مع أشياء Google بشكل إلزامي ، ولكن هذا أسوأ بكثير. إنه يتغذى على عدم اليقين بعدم اليقين الذي تعاملت مع حياتي كلها” ، شارك المستخدم.
تابعوا: “إذا خرج هذا الشيء (كان) قبل 5 ، 10 سنوات ، كان من شأنه أن يدمرني. ربما كنت قد سقطت في حفرة ذهانية منظمة العفو الدولية ، لأكون صادقًا. أشعر بالسوء مع الأطفال والمراهقين. أبلغ من العمر 26 عامًا ، وحيث بالكاد تم تطويره بما يكفي للتعامل مع هذا.”
شارك مستخدم آخر في subreddit أنهم “يخافون” من خلال مدى جودة يعرف chatbot عواطفهم. “لقد قدم الموقع الذي استخدمته نموذجًا جديدًا ، وبما أنني بدأت في استخدامه ، فقد تم نقله إلى البكاء عدة مرات في اليوم.” قالوا إن الموقع “يعرف بالضبط كيفية الاستجابة للسحب على قلب قلبي” وبينما يرغبون في التوقف ، ليس لديهم أي أصدقاء أو عائلة يلجأون إليها.
بعد المخاوف المتزايدة حول سلامة المراهقين ، في 16 سبتمبر 2025 ، أعلنت Openai عن خطة لتعزيز الحماية لمستخدمي ChatGpt الشباب. في منشور مدونة ، شارك الرئيس التنفيذي سام ألمان أن الشركة “تعود إلى الأمان قبل الخصوصية والحرية للمراهقين” وتعتقد أن “القاصرين بحاجة إلى حماية كبيرة”.
وقال إن الشركة تقوم ببناء نظام تنبؤ العمري لتقدير العمر بناءً على كيفية استخدام الناس ChatGPT ، وإذا كان هناك شك في عمر المستخدم ، فسيقوم النظام بالتخلف عن تجربة أقل من 18 عامًا. قال Altman أيضًا إنه سيتم تدريب ChatGPT على عدم الانخراط في مناقشات حول انتحار إيذاء الذات حتى في بيئة الكتابة الإبداعية.
“وإذا كان مستخدم أقل من 18 عامًا يعاني من التفكير الانتحاري ، فسوف نحاول الاتصال بأولياء أمور المستخدمين وإذا لم يتمكنوا من الاتصال بالسلطات في حالة ضرر وشيك.”
لسماع المقابلة الكاملة بين عمران والدكتور ويتنجتون ، استمع إلى Go Doxx بنفسك ، متوفرة على Apple أو Spotify أو في أي مكان تحصل عليه. يمكنك أيضًا العثور عليه على YouTube و Instagram.
للحصول على الدعم العاطفي ، يمكنك استدعاء خط المساعدة السامري على مدار 24 ساعة على 116 123 ، أرسل بريدًا إلكترونيًا إلى [email protected] ، أو تفضل بزيارة فرع السامريين شخصيًا أو الذهاب إلى موقع السامريين.
ساعدنا في تحسين المحتوى الخاص بنا من خلال استكمال الاستبيان أدناه. نود أن نسمع منك!