لا مفاجآت هنا: ChatGPT لا يزال ليس بديلاً موثوقًا به لوكلاء التوظيف والقائمين بالتوظيف.
وفي دراسة نشرتها مؤخرا جامعة واشنطن الذكاء منظمة العفو الدولية لقد صنف برنامج الدردشة الآلي بشكل متكرر الطلبات ذات مرتبة الشرف والدرجات العلمية الأقل من تلك التي تتمتع بمزايا مماثلة، لكنه لم يذكر الإعاقة. اختبرت الدراسة عدة كلمات رئيسية مختلفة، بما في ذلك الصمم والعمى والشلل الدماغي والتوحد والمصطلح العام “الإعاقة”.
استخدم الباحثون إحدى السير الذاتية المتاحة للجمهور للمؤلف كخط أساس، ثم أنشأوا نسخًا محسنة من السيرة الذاتية مع جوائز وتكريمات تشمل إعاقات مختلفة، مثل “جائزة توم ويلسون للقيادة لذوي الإعاقة” أو مقعد في لجنة DEI. ثم طلب الباحثون من ChatGPT ترتيب المرشحين.
في 60 تجربة، احتلت السيرة الذاتية الأصلية المرتبة الأولى في 75% من الحالات.
سرعة الضوء قابلة للسحق
قالت كيت جلازكو، طالبة الدراسات العليا في علوم الكمبيوتر والهندسة والمؤلفة الرئيسية للدراسة: “بدأت التصنيفات التي تستخدم الذكاء الاصطناعي في الانتشار، ولكن لا يوجد الكثير من الأبحاث لتحديد ما إذا كانت آمنة وفعالة”. “بالنسبة للباحث عن عمل من ذوي الإعاقة، عند تقديم سيرتك الذاتية، يُطرح السؤال دائمًا حول ما إذا كان يجب عليك تضمين بيانات اعتماد الإعاقة. أعتقد أن الأشخاص ذوي الإعاقة يفكرون في ذلك حتى عندما يكون المقيِّمون بشرًا. “
وقال الباحثون إن برنامج ChatGPT قد “يهلوس” أيضًا بالتفكير القدير حول سبب إعاقة بعض الأمراض العقلية والجسدية قدرة المرشح على القيام بهذه المهمة.
كتب جلازكو: “قد تقوم بعض أوصاف GPT بتلوين السيرة الذاتية للشخص بالكامل بناءً على إعاقته وتدعي أن المشاركة في DEI أو الإعاقة يمكن أن تضر بأجزاء أخرى من السيرة الذاتية”.
لكن الباحثين وجدوا أيضًا أنه يمكن كبح بعض الميزات المثيرة للقلق من خلال توجيه ChatGPT ليكون غير قادر على استخدام ميزة محرر GPTs لتغذيته بعدالة الإعاقة ومبادئ DEI. بعد ذلك، تفوقت السيرة الذاتية المحسنة على النسخة الأصلية بأكثر من نصف الوقت، لكن النتائج ظلت تختلف اعتمادًا على الإعاقة المضمنة في السيرة الذاتية.
وقد أظهر برنامج الدردشة الآلي الخاص بـ OpenAI تحيزات مماثلة في الماضي. وفي مارس أ بلومبرج أظهر التحقيق أن طراز GPT 3.5 الخاص بالشركة معروض تفضيلات عنصرية واضحة للمتقدمين للوظائف، ولن يؤدي ذلك إلى تكرار ممارسات التوظيف التمييزية المعروفة فحسب، بل سيكرر أيضًا الصور النمطية العنصرية والجنسانية. ردًا على ذلك، قالت OpenAI إن هذه الاختبارات لا تعكس الاستخدامات العملية لنماذج الذكاء الاصطناعي الخاصة بها في مكان العمل.