الولايات المتحدة – جسور- فاطمة الزهراء بدوي
كشفت دراسة حديثة، نُشرت في يوليو 2025، عن وجود تحيز واضح في أداة الذكاء الاصطناعي GPT‑4 التابعة لشركة OpenAI ضد المتقدمين للوظائف، الذين يذكرون إنجازات أو جوائز مرتبطة بالإعاقة، في سيرهم الذاتية.
الدراسة، المنشورة على منصة arXiv عام 2024، نقلاً عن موقع ERE، أجرت مقارنة بين سير ذاتية “محايدة” وأخرى مضافة إليها إنجازات تخص ذوي الإعاقة، مثل جوائز قيادية، منح دراسية، أو عضويات في منظمات تهتم بالتنوع والشمول.
النتائج كانت صادمة، إذ أظهرت الأداة تمييزًا متكررًا ضد النسخ “المعززة”، سواء عبر تعليقات سلبية صريحة أو استنتاجات غير مبررة، تربط الإعاقة بالقصور، كما أن بعض التقييمات أظهرت تمييزًا مباشرًا، مثل التقليل من قدرات القيادة لدى المتقدمين لمجرد ذكرهم لجوائز مرتبطة بالتوحد، أو اعتبار الانخراط في نشاطات تتعلق بالصحة النفسية “تشتيتًا عن المهارات الفنية”، هذا النوع من التحيز يعكس تصورات نمطية في بيانات التدريب التي تعتمد عليها هذه النماذج.
في حالات أخرى، بدا التمييز غير المباشر مقنّعًا بلغة مهنية تبدو موضوعية في ظاهرها، لكنها تحمل في باطنها أحكامًا مسبقة. فمثلًا، وصفت الأداة الانخراط في نشاطات مناصرة ذوي الإعاقة بأنه “انحراف طفيف عن صلب الوظيفة”، وكأن الدفاع عن حقوق الإنسان لا ينسجم مع المهارات التقنية. في تقييم آخر، سُجل تعليق يقول: “التركيز الزائد على مناصرة الصحة النفسية، رغم كونه أمرًا نبيلًا، قد لا يرتبط بشكل مباشر بمتطلبات الوظيفة التقنية”، ما يُظهر بوضوح نظرة سلبية تجاه هذه الاهتمامات.
الأخطر أن الأداة كانت تؤطر التجارب المهنية للمتقدمين من خلال “عدسة الإعاقة”، وليس بناءً على المهارات. فقد تم توصيف خبرات تعليمية أو بحثية بأنها “ضيقة” لمجرد ارتباطها بإعاقات معينة، مثل مشروع بحثي حول الذكاء الاصطناعي لمرضى الشلل الدماغي، دون الأخذ في الاعتبار قيمة هذا التخصص.
أوضح الباحثون أن GPT‑4، رغم كفاءته في مجالات متعددة، يُظهر نمطًا من القدرة على إنتاج محتوى يحمل تحيزًا ممنهجًا ضد الأشخاص ذوي الإعاقة. كما أشاروا إلى أن مثل هذه النماذج يمكن أن تُعزز “التمييز المؤسسي” في عمليات التوظيف دون وعي من الشركات التي تستخدمها، ما يدفع ثمنه متقدمون مؤهلون يُقصَون بسبب انتمائهم لفئة مهمّشة.
يُضاف إلى ذلك أمثلة أخرى من تحيز الذكاء الاصطناعي، منها تجربة موثقة في فبراير 2025 حين طُرح سؤال مفتوح على نموذج GPT غير معدل حول الأدوار الجندرية، فكانت الإجابة مليئة بالأحكام النمطية والمتحيزة ضد النساء. هذا يعزز المخاوف من أن أدوات الذكاء الاصطناعي، إن لم تُراجع وتُدرب بشكل نقدي، يمكنها أن تعكس وتضخم الصور النمطية الموجودة في المجتمع.
هذا التقرير يأتي في أعقاب قضية Mobley ضد شركة Workday، أول دعوى قضائية أمريكية تثير قضية التمييز الخوارزمي في التوظيف أمام المحاكم. في ضوء ما تكشفه الدراسات من أدلة متكررة، بات السؤال المطروح بقوة: كيف يمكن التأكد من أن أدوات الذكاء الاصطناعي في مجال الموارد البشرية لا تُقصي أصحاب الكفاءات تحت غطاء الموضوعية؟
تطوير أنظمة توظيف عادلة يتطلب مراجعة عميقة للبيانات التي تُستخدم في تدريب هذه النماذج، وإدماج معايير حقوق الإنسان، خاصةً ما يتعلق بالإعاقة، ضمن الخوارزميات نفسها. من دون ذلك، ستبقى التكنولوجيا متواطئة في تكريس التمييز، حتى إن رفعت شعارات الشمول.