لم يعد البحث اليوم عن عمل مقتصرا على إرسال السيرة الذاتية أو الإجابة عن أسئلة مدير بشري، فقد تحول جزء كبير من هذه العملية إلى صندوق أسود رقمي، حيث باتت خوارزميات الذكاء الاصطناعي هي الحارس الأول للبوابة المهنية. يفتح هذا التحول التقني، الذي تبرره الشركات بحجم الطلبات الهائل، نقاشا حادا حول حدود الأتمتة والعدالة والأخلاقيات الرقمية في عملية التوظيف.
كشف تقرير حديث لصحيفة “الغارديان” (The Guardian) البريطانية، نُشر في 3 مايو 2026، عن اتساع الفجوة بين طموحات الشركات التقنية وتجارب الباحثين عن عمل. أظهرت البيانات أن نحو 47% من الباحثين عن عمل في المملكة المتحدة قد خضعوا بالفعل لمقابلات توظيف يديرها الذكاء الاصطناعي، بينما قرر 30% من المرشحين الانسحاب تماما من عملية التوظيف بمجرد معرفتهم بوجود هذا النوع من المقابلات، مما يشير إلى أزمة ثقة بين الطرفين.
التوظيف في عصر “الخوارزميات”
من الناحية التقنية، لا تكتفي هذه الأنظمة بتسجيل الإجابات، بل تعمل وفق نماذج معقدة متعددة الأبعاد. تحلل الخوارزميات الكلمات المفتاحية، وتماسك الأفكار، وحتى استخدام “المصطلحات المهنية” المحددة مسبقا، مما قد يحول المقابلة إلى عملية “حشو كلمات” بدلا من تقييم شامل للشخصية.
كما تعمل هذه الأنظمة على تحليل النبرة والسمات، حيث تسعى الأنظمة المتقدمة لتحليل “نبرة الصوت” و”سرعة الحديث” وحتى “تعابير الوجه”، رغم الجدل العلمي حول دقة هذه القياسات. تهدف هذه الأدوات لتقدير السمات الشخصية مثل الثقة أو الذكاء العاطفي، لكنها غالبا ما تفشل في استيعاب التنوع الثقافي أو الاختلافات في أساليب التواصل.
أشار أحد المشاركين في تحقيق لصحيفة “الغارديان” إلى أن هذه الأنظمة تعاني من غياب التفاعل الديناميكي. فالذكاء الاصطناعي غالبا ما يفتقر إلى القدرة على فهم “الصمت التأملي” أو “الاستطراد السياقي”. قد تقاطع الأنظمة المرشحين إذا توقفوا للحظة للتفكير، وهو ما يقتل العفوية والعمق في الإجابة.
ماذا يحدث داخل “المقابلة الآلية”؟
تتعدد أوجه الاستياء التي وثقها التقرير، وهي تعكس جوانب تقنية وأخلاقية عميقة. وصف كثيرون التجربة بأنها “حديث مع مرآة”، حيث يغيب الطرف الآخر الذي يمنح المرشح شعورا بالاعتراف أو التقدير. هذا الغياب للجانب الإنساني يجعل المقابلة تبدو “مهينة” لكثير من الكفاءات.
لكن المشكلة الأخطر – حسب ما قال بعض المشاركين في التجربة – تكمن في أن هذه الخوارزميات تتدرب على بيانات تاريخية قد تحتوي على تحيزات ضد مجموعات معينة. وعندما تُستخدم لفلترة المتقدمين، فإنها قد تعيد إنتاج نفس التحيزات بشكل آلي ومستتر، مما يقلل من فرص الأشخاص الذين لا تتطابق “بصمتهم الرقمية” مع النموذج المثالي الذي حدده المبرمجون.
إضافة إلى العجز عن تقييم “غير النمطي”، فإن التجارب الشخصية تُظهر بوضوح أن الذكاء الاصطناعي يفضل الإجابات النمطية “المعلبة”، ويعاقب أي تفكير إبداعي أو تحليلي يتطلب وقتا أو سياقا خاصا. التجارب مع أصحاب التفكير المختلف مثل “طيف التوحد” تسلط الضوء على هذه التحديات.
تحديات تعجز عنها الخوارزميات
يضع التقرير الشركات أمام مسؤولية أخلاقية، وهي أن الأتمتة لغرض الكفاءة يجب ألا تأتي على حساب “جودة التوظيف”. هناك اتجاهات نحو الشفافية الكاملة، بحيث يجب على الشركات الإفصاح عن معايير التقييم وكيفية استخدام الذكاء الاصطناعي.
كما يُقترح توفير بديل بشري لمن يجدون صعوبة في التعامل مع الأنظمة الآلية، واعتماد المراجعة البشرية. ينبغي أن يكون استخدام الذكاء الاصطناعي كأداة مساعدة لا لاتخاذ قرار الرفض أو القبول النهائي بشكل أعمى.
وبينما يرى أصحاب العمل في الأتمتة حلا لزحام الطلبات، يرى المرشحون فيها “جدارا رقميا” يفتقر للحكمة والإنصاف. المراقبون يرون أن مستقبل التوظيف الناجح لن يكون في “أتمتة البشر”، بل في استخدام التكنولوجيا لتعزيز القدرة البشرية على الاختيار، لا لاستبدالها.