اعتقد الرجل أن الجار كان يسممه بعد أخذ المشورة الطبية من ChatGpt

فريق التحرير

اعتقد شاب يبلغ من العمر 60 عامًا أن جاره كان يحاول تسممه بعد أن أصيب بالذهان. لقد كان يأخذ مادة كيميائية بعد ما قاله هو نصيحة من ChatGpt

يحذر الخبراء من أن ChatGPT من توزيع المشورة الطبية الضارة بعد أن طور رجل حالة نادرة واعتقد أن جاره كان يسممه.

قام رجل يبلغ من العمر 60 عامًا بتطوير برومينية نتيجة لإزالة ملح المائدة من نظامه الغذائي بعد تفاعل مع chatbot منظمة العفو الدولية ، وفقًا لمقال نشر في حوليات الطب الباطني. أخبر المريض الأطباء أنه قرأ عن الآثار السلبية لملح الجدول وطلبوا من روبوت الذكاء الاصطناعى مساعدته على إزالته من نظامه الغذائي.

وقالت الدراسة إن البروم ، المعروف أيضًا باسم سمية البروميد ، “كان ذات يوم عبارة عن مواد توهية معروفة جيدًا في أوائل القرن العشرين” والتي “عجلت مجموعة من العروض التقديمية التي تنطوي على الأعراض العصبية النفسية والأمراض الجلدية”. يأتي بعد تحذير الطبيب للأشخاص الذين يشربون حتى “كوب واحد من الشاي”.

اقرأ المزيد: “لقد فقدت العاشرة في السنة بدون ضربة أو جراحة أو الذهاب إلى صالة الألعاب الرياضية”اقرأ المزيد: رجل ، 30 عامًا ، وضع ألمًا في الكتف على آلام الصالة الرياضية ، ثم سأل الأطباء عن مكان يموت أن يموت

شاكر الملح وكومة من الملح المسكوب على الحجر الخرساني.

في البداية ، اعتقد الرجل أن جاره كان يسممه وكان يعاني من “أعراض ذهانية”. ولوحظ أنه بجنون العظمة تجاه المياه التي عرض عليها وحاول الهروب من المستشفى قدم نفسه في غضون يوم من وجوده هناك. تحسنت أعراضه في وقت لاحق بعد العلاج.

وقال للأطباء إنه بدأ في تناول بروميد الصوديوم على مدار ثلاثة أشهر بعد قراءة ملح الجدول ، أو كلوريد الصوديوم ، يمكن أن “يمكن تبديله بالبروميد ، على الرغم من أنه من المحتمل لأغراض أخرى ، مثل التنظيف”. تم استخدام بروميد الصوديوم كإهدار من قبل الأطباء في الجزء الأول من القرن العشرين.

وكشفت القضية ، وفقًا لخبراء من جامعة واشنطن في سياتل الذين قاموا بتأليف المقال ، “كيف يمكن أن يساهم استخدام الذكاء الاصطناعي في تطوير نتائج صحية ضارة يمكن الوقاية منها”. قال مؤلفو التقرير إنه لم يكن من الممكن الوصول إلى سجل ChatGpt للرجل لتحديد ما قيل له بالضبط ، ولكن عندما طلبوا من النظام تقديم توصية لاستبدال كلوريد الصوديوم ، شملت الإجابة بروميد.

يأتي بعد تحذير الطبيب للأشخاص الذين يشربون حتى

لم تسأل الرد عن سبب بحث المؤلفين عن المعلومات ، ولا يقدمون تحذيرًا صحيًا محددًا. لقد ترك العلماء خوفًا من “عدم الدقة العلمية” التي يتم إنشاؤها بواسطة ChatGPT وتطبيقات الذكاء الاصطناعى الأخرى لأنهم “يفتقرون إلى القدرة على مناقشة النتائج بشكل نقدي” ويمكن أن “يعزز انتشار المعلومات الخاطئة”.

في الأسبوع الماضي ، أعلنت شركة Openai أنها أصدرت الجيل الخامس من تكنولوجيا الذكاء الاصطناعي التي تعرض Chatgpt. وقال Openai وفقًا لصحيفة The Guardian: أكد Openai أيضًا أن Chatgpt لم يكن بديلاً عن المساعدة الطبية.

شارك المقال
اترك تعليقك