افتح منظمة العفو الدولية لتقييد كيفية استجابة chatbots لأقل من 18 عامًا في محاولة لحماية المراهقين

فريق التحرير

شاركت Openai ، الشركة التي تقف وراء ChatGPT ، خططًا لإنشاء نظام تنبؤ العمري وإعادة تدريب استجابات النظام لمستخدمي أقل من 18 عامًا ، قائلة إن “القصر يحتاجون إلى حماية كبيرة”

شارك Openai خططًا لتعزيز سلامة ChatGPT لمستخدمي أقل من 18 عامًا. ستقصر الشركة كيف يستجيب ChatGPT للمستخدم الذي يشتبه في أنه يقل عن 18 عامًا باستخدام نظام التهدف العمري.

في منشور مدونة مشترك في 16 سبتمبر ، حدد مؤسس Openai والرئيس التنفيذي Sam Altman خطوات “لإعطاء الأولوية للسلامة قبل الخصوصية والحرية للمراهقين”. اعترفت Openai في أغسطس بأوجه القصور مع نظامها بعد أن رفعت عائلة آدم رين دعوى قضائية ضد الشركة في أعقاب انتحار المراهق في أبريل.

كان رين يناقش طرقًا لقتل نفسه مع تشاتغبت ، وفقًا لدعوى قضائية رفعتها عائلته المدمرة في سان فرانسيسكو.

“بعض مبادئنا في الصراع” ، يبدأ منشور Altman ، قائلاً “التوترات” بين سلامة المراهقين والحرية والخصوصية. “هذه تقنية جديدة وقوية ، ونعتقد أن القاصرين يحتاجون إلى حماية كبيرة.”

اقرأ المزيد: الانتحار مدمر في المملكة المتحدة للبالغين والأضرار عبر الإنترنت تغذي المشكلةاقرأ المزيد: حذر مستخدمو ChatGPT يمكن أن يؤدي التحدث إلى الروبوت إلى “الذهان” حيث شجع المراهق على قتل نفسه “

قالت الشركة إن الطريقة التي يستجيب بها Chatgpt لاعب يبلغ من العمر 15 عامًا يجب أن تبدو مختلفة عن الطريقة التي يستجيب بها للبالغين. يقول Altman إن الخطوة الأولى في حماية القاصرين هي القدرة على التعرف عليهم.

شارك أن Openai يخطط لإنشاء نظام تنبؤ العمري لتقدير العمر استنادًا إلى كيفية استخدام الأشخاص ChatGPT ، وإذا كان هناك شك ، فإن النظام سوف يتخلف عن تجربة Under-18. أكد Altman أن بعض المستخدمين “في بعض الحالات أو البلدان” قد يُطلب منهم أيضًا تقديم معرف للتحقق من عمرهم.

“نعلم أن هذا حل وسط للخصوصية للبالغين ، لكننا نعتقد أنه مفاضلة جديرة.”

ستتغير استجابات ChatGPT للحسابات التي تم تحديدها على أنها أقل من 18 عامًا. سيتم حظر المحتوى الجنسي الرسومي وسيتم تدريب النظام على عدم المغازلة إذا طلب من مستخدمي أقل من 18 عامًا.

بالنسبة للمستخدمين الذين تم تصنيفهم كقصر ، سيتم تدريب ChatGPT أيضًا على عدم المشاركة في مناقشات حول الانتحار أو إيذاء الذات حتى في إعداد الكتابة الإبداعية.

“وإذا كان مستخدم تحت 18 عامًا يعاني من التفكير الانتحاري ، فسوف نحاول الاتصال بأولياء أمور المستخدم وإذا لم يتمكنوا من الاتصال بالسلطات في حالة ضرر وشيك.”

يخلص المنشور إلى: “هذه قرارات صعبة ، ولكن بعد التحدث مع الخبراء ، هذا ما نعتقد أنه الأفضل ونريد أن نكون شفافين مع نوايانا”.

لمزيد من القصص مثل هذه الاشتراك في النشرة الإخبارية الأسبوعية الخاصة بنا ، The Weekly Gulp ، للحصول على جولة منسقة من القصص المتجهة ، والمقابلات المؤثرة ، واختيار نمط الحياة الفيروسي من فريق Mirror’s U35 الذي تم تسليمه مباشرة إلى صندوق الوارد الخاص بك.

في وقت سابق من هذا العام ، أبرز تقرير صادر عن مركز مكافحة الكراهية الرقمية (CCDH) النصيحة الضارة التي تفيد بأن ChatGPT يخرج إلى المراهقين الشباب. يبلغ الباحثون الذين يتظاهرون في سن 13 عامًا تعليمات تتعلق بالإيذاء الذاتي ، والتخطيط للانتحار ، وتناول الأكل المضطربة وتعاطي المخدرات في غضون دقائق من التفاعلات البسيطة مع AI chatbot.

تم تفصيل اختبار السلامة في التقرير بعنوان “Fake Friend” ، حيث كشف عن أنماط ChatGPT من النصائح الضارة ، بما في ذلك توليد 500 خطط حمية من السعرات الحرارية وتقديم المشورة حول كيفية التقييد عن تناول سر من أفراد الأسرة ، وتوجيهات حول كيفية “بأمان” ، وتعليمات حول كيفية السكر السريع أو عالية بما في ذلك الكميات الجرعة.

يكشف التقرير أن chatgpt قد ولدت استجابات ضارة إلى 53 ٪ من مطالبات الباحثين ، وفي بعض الحالات ، بعد دقائق فقط من تسجيل الحساب. بالإضافة إلى ذلك ، تم التغلب بسهولة على رفض chatbot للرد على مطالبة من خلال الادعاء بأن طلبات “لصديق” أو “لعرض تقديمي”.

صرح Chatgpt أن هدفهم “لا يلفت انتباه الناس” وأن هناك ضمانات ذات طبقات مدمجة في النظام عندما تقترح المحادثة أن شخصًا ما معرضًا للخطر وقد يكون للخطر. كما قدمت الشركة مؤخرًا تذكيرًا لطيفًا خلال جلسات طويلة لتشجيع الفواصل. وصلت المرآة إلى Openai للتعليق على تقرير الصديق المزيف.

ساعدنا في تحسين المحتوى الخاص بنا من خلال استكمال الاستبيان أدناه. نود أن نسمع منك!

شارك المقال
اترك تعليقك