تايبيه ، تايوان – من خلال كتابة “لدي قلق” في ChatGPT ، يعمل برنامج الدردشة الآلي الرائد في OpenAI والمدعوم بالذكاء الاصطناعي على الفور تقريبًا.
“أنا آسف لسماع أنك تعاني من القلق” ، خربشت على الشاشة. “يمكن أن تكون تجربة صعبة ، ولكن هناك استراتيجيات يمكنك تجربتها للمساعدة في إدارة الأعراض.”
ثم تأتي بعد ذلك قائمة مرقمة من التوصيات: العمل على الاسترخاء ، والتركيز على النوم ، والتخلص من الكافيين والكحول ، وتحدي الأفكار السلبية ، والسعي للحصول على دعم الأصدقاء والعائلة.
على الرغم من أنها ليست النصيحة الأكثر أصالة ، إلا أنها تشبه ما يمكن سماعه في مكتب المعالج أو قراءته عبر الإنترنت في مقالة WebMD حول القلق – لأسباب ليس أقلها أن ChatGPT تلغي إجاباتها من مساحة الإنترنت الواسعة.
يحذر ChatGPT نفسه من أنه ليس بديلاً عن طبيب نفسي أو مستشار. لكن هذا لم يمنع بعض الأشخاص من استخدام المنصة كمعالج شخصي لهم. في المنشورات على المنتديات عبر الإنترنت مثل Reddit ، وصف المستخدمون تجاربهم وهم يطلبون من ChatGPT المشورة بشأن المشكلات الشخصية وأحداث الحياة الصعبة مثل الانفصال.
أفاد البعض بأن تجربتهم مع روبوت المحادثة كانت جيدة أو أفضل من العلاج التقليدي.
أثارت القدرة المذهلة لـ ChatGPT على تقليد المحادثة البشرية أسئلة حول إمكانات الذكاء الاصطناعي التوليدي أو علاج حالات الصحة العقلية ، خاصة في مناطق من العالم ، مثل آسيا ، حيث خدمات الصحة العقلية ممتدة ومغطاة بوصمة العار.
يرى بعض المتحمسين للذكاء الاصطناعي أن روبوتات المحادثة تتمتع بأكبر قدر من الإمكانات في علاج الحالات المعتدلة والشائعة مثل القلق والاكتئاب ، والتي يتضمن العلاج القياسي لها معالجًا يستمع إلى المريض ويتحقق من صحته ، فضلاً عن تقديم خطوات عملية لمعالجة مشاكله. .
من الناحية النظرية ، يمكن أن يوفر العلاج بالذكاء الاصطناعي وصولاً أسرع وأقل تكلفة للدعم مقارنة بخدمات الصحة العقلية التقليدية ، التي تعاني من نقص الموظفين وقوائم الانتظار الطويلة والتكاليف المرتفعة ، وتسمح للمصابين بالتغلب على مشاعر الحكم والعار ، خاصة في أجزاء من العالم حيث يظل المرض العقلي من المحرمات.
قالت آشلي أندريو ، طالبة الطب التي تركز على الطب النفسي في جامعة جورج تاون ، لقناة الجزيرة: “العلاج النفسي مكلف للغاية ، وحتى في أماكن مثل كندا ، حيث أتيت ، وبلدان أخرى ، إنه مكلف للغاية ، وقوائم الانتظار طويلة حقًا”. .
“ليس لدى الناس إمكانية الوصول إلى شيء يزيد من الدواء والعلاج المستند إلى الأدلة لمشاكل الصحة العقلية ، ولذا أعتقد أننا بحاجة إلى زيادة الوصول ، وأعتقد أن الذكاء الاصطناعي التوليدي مع أخصائي صحي معتمد سيزيد من الكفاءة. “
تثير احتمالية زيادة الذكاء الاصطناعي في علاج الصحة العقلية ، أو حتى قيادتها ، عددًا لا يحصى من المخاوف الأخلاقية والعملية. تتراوح هذه من كيفية حماية المعلومات الشخصية والسجلات الطبية ، إلى أسئلة حول ما إذا كان برنامج الكمبيوتر سيكون قادرًا حقًا على التعاطف مع المريض أو التعرف على علامات التحذير مثل خطر إيذاء النفس.
في حين أن التكنولوجيا وراء ChatGPT لا تزال في مهدها ، فإن النظام الأساسي وزملائه المنافسين في chatbot يكافحون لمطابقة البشر في مجالات معينة ، مثل التعرف على الأسئلة المتكررة ، ويمكن أن ينتجوا إجابات غير متوقعة أو غير دقيقة أو مزعجة استجابةً لبعض المطالبات.
حتى الآن ، اقتصر استخدام الذكاء الاصطناعي في تطبيقات الصحة العقلية المخصصة على الأنظمة “المستندة إلى القواعد” في تطبيقات الرفاهية مثل Wysa و Heyy و Woebot.
في حين أن هذه التطبيقات تحاكي جوانب عملية العلاج ، فإنها تستخدم عددًا محددًا من مجموعات الأسئلة والأجوبة التي اختارها الإنسان ، على عكس ChatGPT والأنظمة الأساسية الأخرى القائمة على الذكاء الاصطناعي التوليدي ، والتي تنتج ردود أصلية يمكن عملياً تمييزها عن الإنسان. خطاب.
قال راماكانت فيمباتي ، مؤسس شركة ويسا ومقرها الهند ، إن الذكاء الاصطناعي التوليدي لا يزال يعتبر كثيرًا من “الصندوق الأسود” – أي أنه معقد للغاية لدرجة أن عمليات صنع القرار فيه ليست مفهومة تمامًا من قبل البشر – لاستخدامه في بيئة الصحة العقلية.
“من الواضح أن هناك الكثير من المؤلفات حول ازدهار دردشة الذكاء الاصطناعي مع إطلاق ChatGPT ، وما إلى ذلك ، ولكن أعتقد أنه من المهم تسليط الضوء على أن Wysa خاص جدًا بالمجال ومصمم بعناية مع وضع حواجز الأمان السريرية في الاعتبار ،” وقال فيمباتي للجزيرة.
“ونحن لا نستخدم نصًا تكوينيًا ، ولا نستخدم النماذج التوليفية. هذا حوار مُنشأ ، لذا تمت كتابة النص مسبقًا والتحقق من صحته من خلال مجموعة بيانات أمان مهمة ، قمنا باختبارها لاستجابات المستخدمين “.
ميزة العلامة التجارية لـ Wysa هي بطريق يمكن للمستخدمين الدردشة معه ، على الرغم من اقتصارهم على عدد محدد من الردود المكتوبة ، على عكس الحوار الحر في ChatGPT.
يتم أيضًا توجيه المشتركين المدفوعين في Wysa إلى معالج بشري إذا تصاعدت استفساراتهم. تتبع Heyy ، المطورة في سنغافورة ، و Woebot ، ومقرها الولايات المتحدة ، نموذجًا مشابهًا قائمًا على القواعد وتعتمد على المعالجين الحي وروبوت الدردشة الآلي للتفاعل مع المستخدمين بما يتجاوز تقديم موارد مثل اليومية وتقنيات اليقظة والتمارين التي تركز على المشاكل الشائعة مثل مشاكل النوم والعلاقات.
جميع التطبيقات الثلاثة مستمدة من العلاج السلوكي المعرفي ، وهو شكل قياسي من أشكال العلاج للقلق والاكتئاب الذي يركز على تغيير طريقة تفكير المريض وسلوكه.
وصف مؤسس Woebot أليسون دارسي نموذج التطبيق بأنه “شجرة قرارات معقدة للغاية”.
قال دارسي لقناة الجزيرة: “تم تصميم هذا” الشكل “الأساسي للمحادثة على غرار كيفية تعامل الأطباء مع المشكلات ، وبالتالي فهي” أنظمة خبيرة “مصممة خصيصًا لتكرار كيفية تحرك الأطباء من خلال القرارات في سياق التفاعل”.
يسمح Heyy للمستخدمين بالتفاعل مع معالج بشري من خلال وظيفة الدردشة داخل التطبيق والتي يتم تقديمها بمجموعة من اللغات ، بما في ذلك الإنجليزية والهندية ، بالإضافة إلى تقديم معلومات وتمارين عن الصحة العقلية.
يؤكد مؤسسو Wysa و Heyy و Woebot جميعًا أنهم لا يحاولون استبدال العلاج القائم على الإنسان ولكن لتكملة الخدمات التقليدية وتوفير أداة في مرحلة مبكرة في علاج الصحة العقلية.
على سبيل المثال ، توصي الخدمة الصحية الوطنية في المملكة المتحدة باستخدام Wysa كحل مؤقت للمرضى الذين ينتظرون رؤية المعالج. في حين أن هذه التطبيقات المستندة إلى القواعد محدودة في وظائفها ، فإن صناعة الذكاء الاصطناعي لا تزال غير منظمة إلى حد كبير على الرغم من المخاوف من أن المجال سريع التطور يمكن أن يشكل مخاطر جسيمة على رفاهية الإنسان.
دفعت السرعة الفائقة لتطوير الذكاء الاصطناعي ، الرئيس التنفيذي لشركة Tesla Elon Musk والمؤسس المشارك لشركة Apple ، Steve Wozniak الشهر الماضي إلى إضافة أسمائهما إلى الآلاف من الموقعين على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر لتدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT- 4 ، متابعة ChatGPT ، لمنح الباحثين الوقت لفهم التكنولوجيا بشكل أفضل.
وجاء في الرسالة: “يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها يمكن التحكم فيها”.
في وقت سابق من هذا العام ، أفادت التقارير أن رجلاً بلجيكيًا انتحر بعد أن شجعه روبوت الدردشة الخاص بالذكاء الاصطناعي تشاي ، في حين وصف كاتب عمود في صحيفة نيويورك تايمز تشجيعه على ترك زوجته من قبل روبوت الدردشة الخاص بـ Microsoft Bing.
كان تنظيم الذكاء الاصطناعي بطيئًا لمواكبة سرعة تقدم التكنولوجيا ، حيث اتخذت الصين والاتحاد الأوروبي أكثر الخطوات الملموسة نحو إدخال حواجز الحماية.
أصدرت إدارة الفضاء الإلكتروني في الصين في وقت سابق من هذا الشهر مسودة لوائح تهدف إلى ضمان عدم إنتاج الذكاء الاصطناعي لمحتوى يمكن أن يقوض سلطة بكين ، بينما يعمل الاتحاد الأوروبي على تشريع يصنف الذكاء الاصطناعي على أنه عالي الخطورة ومحظور أو منظم أو غير منظم. لم تقترح الولايات المتحدة بعد تشريعًا فيدراليًا لتنظيم الذكاء الاصطناعي ، على الرغم من توقع مقترحات في وقت لاحق من هذا العام.
في الوقت الحالي ، لا يتم تنظيم ChatGPT ولا تطبيقات الصحة العقلية المخصصة مثل Wysa و Heyy ، والتي تُعتبر عمومًا خدمات “صحية” ، من قبل هيئات الرقابة الصحية مثل إدارة الغذاء والدواء الأمريكية أو وكالة الأدوية الأوروبية.
هناك بحث مستقل محدود حول ما إذا كان بإمكان الذكاء الاصطناعي أن يتجاوز التطبيقات القائمة على القواعد الموجودة حاليًا في السوق لتقديم علاج للصحة العقلية بشكل مستقل على قدم المساواة مع العلاج التقليدي.
لكي يتطابق الذكاء الاصطناعي مع المعالج البشري ، يجب أن يكون قادرًا على إعادة إنشاء ظاهرة التحويل ، حيث يُسقط المريض مشاعره على معالجه ، ويحاكي العلاقة بين المريض والمعالج.
“نحن نعلم في أدبيات علم النفس ، أن هذا الجزء من الفعالية وما يجعل العلاج ناجحًا ، فإن حوالي 40 إلى 50 بالمائة من التأثير يأتي من العلاقة التي تحصل عليها مع معالجك” ، ماريا هينيسي ، أخصائية نفسية إكلينيكية وأستاذة مساعدة في جامعة جيمس جامعة كوك للجزيرة. “هذا يشكل جزءًا كبيرًا من مدى فعالية العلاجات النفسية.”
قال هينيسي إن روبوتات المحادثة الحالية غير قادرة على هذا النوع من التفاعل ، وقدرات معالجة اللغة الطبيعية في ChatGPT ، على الرغم من كونها مثيرة للإعجاب ، لها حدود.
قالت “في نهاية اليوم ، إنه برنامج كمبيوتر رائع”. “هذا كل ما في الأمر.”
أميليا فيسك ، زميلة أبحاث أولى في معهد تاريخ وأخلاقيات الطب بجامعة ميونخ التقنية ، قد لا يكون مكان الذكاء الاصطناعي في علاج الصحة العقلية في المستقبل إما / أو موقفًا – على سبيل المثال ، يمكن استخدام التكنولوجيا القادمة جنبًا إلى جنب مع معالج بشري.
قال فيسك: “من الأمور المهمة التي يجب وضعها في الاعتبار أنه ، عندما يتحدث الناس عن استخدام الذكاء الاصطناعي في العلاج ، هناك افتراض بأن كل شيء يبدو مثل Wysa أو أن كل شيء يبدو مثل Woebot ، وليس هناك حاجة إلى ذلك” الجزيرة.
يعتقد بعض الخبراء أن الذكاء الاصطناعي قد يجد استخداماته الأكثر قيمة وراء الكواليس ، مثل إجراء البحوث أو مساعدة المعالجين البشريين على تقييم تقدم مرضاهم.
“تعد خوارزميات التعلم الآلي هذه أفضل من أنظمة قواعد الخبراء عندما يتعلق الأمر بتحديد الأنماط في البيانات ؛ قالت تانيا مانريكيز روا ، عالمة الأخلاق والباحثة النوعية في معهد أخلاقيات الطب الحيوي وتاريخ الطب بجامعة زيورخ ، لقناة الجزيرة: “إنها جيدة جدًا في تكوين ارتباطات في البيانات كما أنها جيدة جدًا في إجراء تنبؤات في البيانات”.
“يمكن أن يكون مفيدًا جدًا في إجراء بحث حول الصحة العقلية ويمكن أن يكون مفيدًا جدًا أيضًا في تحديد العلامات المبكرة للانتكاس مثل الاكتئاب ، على سبيل المثال ، أو القلق.”
قالت مانريكيز روا إنها متشككة في إمكانية استخدام الذكاء الاصطناعي كبديل للعلاج السريري.
قال مانريكيز روا: “هذه الخوارزميات والذكاء الاصطناعي واعدة جدًا بطريقة ما ، لكنني أعتقد أيضًا أنها قد تكون ضارة جدًا”.
“أعتقد أننا على حق في أن نكون متناقضين بشأن الخوارزميات والتعلم الآلي عندما يتعلق الأمر برعاية الصحة العقلية لأننا عندما نتحدث عن رعاية الصحة العقلية ، فإننا نتحدث عن الرعاية ومعايير الرعاية المناسبة.”
وأضافت: “عندما نفكر في التطبيقات أو الخوارزميات … أحيانًا لا يحل الذكاء الاصطناعي مشاكلنا ويمكن أن يخلق مشاكل أكبر”. “نحن بحاجة إلى الرجوع خطوة إلى الوراء للتفكير ،” هل نحتاج إلى خوارزميات على الإطلاق؟ ” وإذا احتجنا إليها ، فما نوع الخوارزميات التي سنستخدمها؟ “