كشفت تجربة علمية مبتكرة، أجرتها باحثة في جامعة غوتنبرغ بالسويد، عن ثغرات منهجية خطيرة في عالم البحث العلمي، مما يثير تساؤلات حول مصداقيته. قامت الباحثة ألميرا عثمانوفيتش تونستروم باختلاق مرض وهمي، بهدف اختبار قدرة نماذج الذكاء الاصطناعي على تضخيم المعلومات المضللة وتقديمها كنصائح صحية موثوقة.
أطلقت الباحثة على المرض الوهمي اسم “بيكسونيمانیا” (Bixonimania)، ووصفته بأنه يسبب لونًا ورديًا فاتحًا في الجفون مع حكة أو ألم، مرجعة سببه إلى قضاء وقت طويل أمام الشاشات. هدفت التجربة إلى تسليط الضوء على مخاطر الاعتماد الأعمى على الذكاء الاصطناعي في الحصول على معلومات صحية، وكيف يمكن أن ينتشر الخيال العلمي.
المرض المزيف يرتدي ثوبًا علميًا
لإضفاء طابع علمي على مرضها الوهمي، نشرت تونستروم مقالات حول “بيكسونيمانیا” على منصات أكاديمية، مستخدمة باحثًا وهميًا وصورًا مولدة بالذكاء الاصطناعي. حرصت الباحثة على تضمين إشارات واضحة وغير مباشرة إلى زيف ادعاءاتها، مثل اختيار اسم “مانيا” الذي يستخدم في الطب النفسي وليس أمراض العيون، بالإضافة إلى ذكر جامعة ومدينة وهميتين.
كما أدرجت في أبحاثها عبارات صريحة تفيد بأن الورقة بأكملها مختلقة، وتم اختيار أفراد خياليين للدراسة. وعلى الرغم من هذه التلميحات الواضحة، نجحت “بيكسونيمانیا” في الظهور في إجابات أنظمة الذكاء الاصطناعي، التي وصف بعضها المرض بأنه “نادر ومثير” ونصحت المستخدمين باستشارة طبيب عيون.
نتائج فاقت التوقعات
تجاوز تأثير المرض الوهمي حدود الذكاء الاصطناعي، حيث استشهدت دراسة علمية حقيقية، نُشرت في مجلة “كيوريوس”، بالحالة المزيفة قبل سحبها لاحقًا. أثارت هذه التجربة جدلاً واسعًا في الأوساط العلمية، بين من يراها اختبارًا مفيدًا لكيفية انتشار المعلومات المضللة، ومن يرى أنها مساهمة في “تسميم” أنظمة الذكاء الاصطناعي بمحتوى كاذب، خاصة مع تزايد الاعتماد عليها في المجال الطبي.
حتى مع استشارتها لخبير أخلاقي قبل التنفيذ، لم تسلم الباحثة من الانتقادات. ويرى البعض أن الخطر الأكبر يكمن في تعامل الباحثين العلميين مع ما يُنشر في الدوريات العلمية على أنه “نص مقدس”، وتناقل المعلومات دون تمحيص، وهو ما يبتعد عن قواعد البحث العلمي.
خطيئة علمية غابت عن الجدل
ترى الدكتورة نجوى البدري، مديرة مركز التميز للخلايا الجذعية والطب التجديدي بمدينة زويل للعلوم والتكنولوجيا، أن خطورة استشهاد دراسة علمية بمرض وهمي، خاصة بحث لم يخضع للمراجعة أو النشر قبل الطباعة، هو الجانب الذي يحتاج إلى مزيد من الاهتمام. فمثل هذا الاستشهاد يعادل الاعتماد على معلومات من صفحات التواصل الاجتماعي.
ويؤكد هذا السلوك على ضرورة توخي الحذر الشديد عند استخدام أنظمة الذكاء الاصطناعي في المجال الطبي، وضرورة التحقق من مصادر المعلومات، وعدم الاعتماد عليها بشكل أعمى. يبقى التحدي القادم هو كيفية وضع آليات أكثر فعالية لضمان سلامة ومصداقية المعلومات العلمية المتاحة عبر الإنترنت والمنصات الرقمية.