الذكاء الاصطناعي يعيد تشكيل مستقبل التوظيف ويثير قضايا أخلاقية
تغيرت طريقة البحث عن العمل بشكل جذري، حيث لم يعد الأمر مقتصرا على تقديم السيرة الذاتية أو الإجابة عن أسئلة مباشرة من مدير بشري. أصبحت خوارزميات الذكاء الاصطناعي تلعب دور الحارس الأول للمدخلات المهنية، مما يثير نقاشات حول حدود الأتمتة والعدالة والأخلاقيات الرقمية. هذه التحولات التقنية، المدفوعة بالطلب المتزايد على الوظائف، كشفت عن فجوة بين طموحات الشركات وتجارب الباحثين عن عمل.
أظهر تقرير حديث لصحيفة "الغارديان" البريطانية أن نحو 47% من الباحثين عن عمل في المملكة المتحدة خضعوا لمقابلات عمل يديرها الذكاء الاصطناعي. وفي مؤشر مثير، قرر 30% من هؤلاء المرشحين الانسحاب من عملية التوظيف بمجرد معرفتهم بوجود هذا النوع من المقابلات، مما يدل على أزمة ثقة حقيقية بين الطرفين.
تعمل هذه الأنظمة على تسجيل الإجابات وتحليلها باستخدام نماذج معقدة، حيث تدرس الكلمات المفتاحية وتركيب الأفكار وحتى استخدام المصطلحات المهنية. هذه الممارسات تحول المقابلة إلى عملية "حشو كلمات" بدلاً من تقييم حقيقي للشخصية. كما تقوم الأنظمة بتحليل نبرة الصوت وسرعة الحديث، ولكنها غالباً ما تفشل في استيعاب التنوع الثقافي أو اختلاف أساليب التواصل.
أشار بعض المشاركين في التحقيق إلى أن الأنظمة تعاني من غياب التفاعل الديناميكي، حيث تفتقر إلى القدرة على فهم "الصمت التأملي" أو "الاستطراد السياقي". وغالباً ما تقاطع الأنظمة المرشحين في لحظات التفكير، مما يؤثر سلباً على جودة الإجابات.
استعرض التقرير العديد من جوانب الاستياء التي تعكس قضايا تقنية وأخلاقية عميقة، حيث وصف المشاركون التجربة بأنها "حديث مع مرآة"، مما يجعلها تبدو مهينة للكثيرين. وبرزت مشكلة أخرى تتعلق بتحيز الخوارزميات، إذ أن هذه الأنظمة يمكن أن تعيد إنتاج التحيزات الموجودة في البيانات التاريخية المستخدمة لتدريبها. وهذا الأمر يقلل من فرص الأشخاص الذين لا تتطابق بصمتهم الرقمية مع النموذج المثالي المحدد مسبقاً.
كذلك، تتعرض التجارب الشخصية لكثير من الأفراد، مثل أولئك الذين يعانون من طيف التوحد، للتمييز، إذ تفضل الخوارزميات الإجابات النمطية وتُعاقب أي تفكير إبداعي يتطلب وقتاً أو سياقاً خاصاً. ويؤكد هذا أن الذكاء الاصطناعي قد يضر بالمواهب الفريدة.
يضع التقرير الشركات أمام مسؤولية أخلاقية، حيث يجب أن تسعى الأتمتة لتحقيق الكفاءة دون المساس بجودة التوظيف. كما أوضح التقرير أهمية الشفافية، حيث ينبغي على الشركات الإفصاح عن معايير التقييم وكيفية استخدام الذكاء الاصطناعي، وتقديم بدائل بشرية للمرشحين الذين يواجهون صعوبات مع الأنظمة الآلية.
يجب أن يتضمن استخدام الذكاء الاصطناعي مراجعة بشرية، بحيث تظل التكنولوجيا أداة مساعدة وليس وسيلة حاسمة لاتخاذ قرارات القبول أو الرفض. بينما يعتبر بعض أصحاب العمل الأتمتة حلاً لتقليل الطلبات، يشعر المرشحون بأنهم يواجهون جداراً رقمياً يفتقر للحكمة. في النهاية، يبدو أن مستقبل التوظيف الناجح يعتمد على استخدام التكنولوجيا لتعزيز القدرات البشرية وليس لاستبدالها.
