
qui estime que le logiciel de recrutement d'IA est une « pseudoscience automatisée »
Les partisans des algorithmes d'apprentissage automatique formés pour analyser le langage corporel et prédire l'intelligence émotionnelle des candidats pensent que le logiciel offre un moyen plus juste d'évaluer les travailleurs s'il ne tient pas compte du sexe et de la race. Ils soutiennent que les nouveaux outils pourraient éliminer les préjugés humains et aider les entreprises à atteindre leurs objectifs de diversité, d'équité et d'inclusion en embauchant davantage de personnes issues de groupes sous-représentés.
D'ailleurs, ceux qui sont à l'origine de cette technologie affirment qu'elle annule les préjugés humains contre le sexe et l'ethnicité lors du recrutement, en utilisant à la place des algorithmes qui lisent le vocabulaire, les modèles de discours et même les micro-expressions faciales pour évaluer d'énormes bassins de candidats à un emploi pour le bon type de personnalité et la « culture adaptée ».
Pourtant, ces affirmations selon lesquelles les logiciels de recrutement basés sur l'IA peuvent stimuler la diversité des nouvelles recrues sur un lieu de travail ont été démystifiées dans une étude publiée cette semaine.
Aux États-Unis, certains employeurs se sont servis de systèmes de recrutement s'appuyant sur l'intelligence artificielle. Ils permettent de remodeler la façon dont les entreprises évaluent leurs effectifs (et aussi la façon dont les employés potentiels prouvent leur valeur).
Conçu par la société de technologie de recrutement HireVue, le système utilise des caméras d’ordinateur ou de téléphone portable des candidats pour analyser leurs mouvements faciaux, leur choix de mots et leur voix avant de les classer par rapport à d’autres candidats sur la base d’un score « d’employabilité » généré automatiquement.
En octobre 2019, le Washington Post notait que les « évaluations appuyées par l'IA » de HireVue sont devenues si omniprésentes dans certains secteurs, notamment l'hôtellerie et la finance, que les universités s'efforçaient de former les étudiants à la recherche des meilleurs résultats. À cette période, plus de 100 employeurs utilisaient le système, y compris Hilton, Unilever et Goldman Sachs, et plus d'un million de demandeurs d'emploi avaient été analysés.
Certains chercheurs en intelligence artificielle ont estimé que ce système est un mélange infondé de mesures superficielles et de calculs arbitraires qui n’est pas enraciné dans des faits scientifiques. Analyser un être humain de la sorte, affirment-ils, risquerait de pénaliser des interlocuteurs qui ne sont pas du coin, des interviewés visiblement nerveux ou toute autre personne qui ne correspondrait pas au modèle de regard et de langage.
Le système, soutiennent-ils, assumera un rôle crucial pour aider à décider de la carrière d’une personne. Mais les chercheurs doutent que ledit système sache même ce qu’il cherche : en quoi un employé parfait ressemblerait-il ?
« C’est un développement profondément troublant de constater que notre technologie brevetée prétend différencier un travailleur productif d’un travailleur qui n’est pas en forme, en fonction de leurs mouvements faciaux, de leur ton de voix et de leurs manières », a déclaré Meredith Whittaker, co fondatrice de l'AI Now Institute, un centre de recherche à New York. « C’est la pseudoscience. C’est une licence pour discriminer », a-t-elle ajouté. « Et les personnes dont la vie et les opportunités sont littéralement façonnées par ces systèmes n’ont aucune chance de s’investir ».
L'IA peut-elle éliminer les biais dans le processus de recrutement ? Non, d'après une récente étude
un article publié dans la revue Philosophy and Technology par des chercheurs de l'Université de Cambridge démontre cependant que le logiciel n'est guère plus qu'une « pseudoscience automatisée ».
En guise d'introduction, ils expliquent ce qui les a motivés à travailler sur le sujet :

Aussi, six étudiants de premier cycle en informatique ont reproduit un modèle commercial utilisé dans l'industrie pour examiner comment un logiciel de recrutement basé sur l'IA prédit la personnalité des individus à l'aide d'images de leur visage.
Surnommé la « machine à personnalité », le système recherche les « cinq grands » tropes de la personnalité : extraversion, amabilité, ouverture, conscience et névrosisme (prédisposition d'un individu à ressentir des émotions négatives, par opposition avec la stabilité émotionnelle). Ils ont découvert que les prédictions du logiciel étaient affectées par les changements dans les expressions faciales, l'éclairage et les arrière-plans des personnes, ainsi que par leur choix de vêtements. Ces caractéristiques n'ont rien à voir avec les capacités d'un demandeur d'emploi, donc l'utilisation de l'IA à des fins de recrutement est imparfaite, affirment les chercheurs.
« Le fait que les changements de lumière, de saturation et de contraste affectent votre score de personnalité en est la preuve », a déclaré Kerry Mackereth, associée de recherche postdoctorale au Centre d'études sur le genre de l'Université de Cambridge. Les résultats de l'article sont étayés par des études antérieures, qui ont montré comment le port de lunettes et d'un foulard dans une interview vidéo ou l'ajout d'une étagère à livres en arrière-plan peut diminuer les scores d'un candidat en matière de conscience et de névrosisme, a-t-elle noté.
Mackereth a également expliqué que ces outils sont probablement formés pour rechercher les attributs associés aux précédents candidats retenus et sont donc plus susceptibles de recruter des personnes d'apparence similaire au lieu de promouvoir la diversité.
« Les modèles d'apprentissage automatique sont compris comme prédictifs ; cependant, comme ils sont formés sur des données passées, ils réitèrent des décisions prises dans le passé, pas dans le futur. Au fur et à mesure que les outils apprennent à partir de cet ensemble de données préexistant, une boucle de rétroaction est créée entre ce que les entreprises perçoivent comme un employé idéal et les critères utilisés par les outils de recrutement automatisés pour sélectionner les candidats », a-t-elle déclaré.
Les chercheurs pensent que la technologie doit être réglementée plus strictement
« Nous craignons que certains vendeurs emballent des produits "d'huile de serpent" dans un emballage brillant et les vendent à des clients sans méfiance », a déclaré la coauteure Eleanor Drage, associée de recherche postdoctorale également au Center for Gender Studies.
« Bien que les entreprises n'agissent peut-être pas de mauvaise foi, il y a peu de responsabilités quant à la façon dont ces produits sont construits ou testés. En tant que telles, cette technologie et la façon dont elle est commercialisée pourraient devenir de dangereuses sources de désinformation sur la façon dont le recrutement peut être 'débiaisé' et rendu plus juste », a-t-elle ajouté.
Mackereth a déclaré que bien que la loi sur l'IA de l'Union européenne classe ces logiciels de recrutement comme « à haut risque », il n'est pas clair quelles règles sont appliquées pour réduire ces risques. « Nous pensons qu'il doit y avoir un examen beaucoup plus sérieux de ces outils et des allégations marketing qui sont faites à propos de ces produits, et que la réglementation des outils RH alimentés par l'IA devrait jouer un rôle beaucoup plus important dans l'agenda politique de l'IA ».
« Alors que les méfaits des outils de recrutement basés sur l'IA semblent être beaucoup plus latents et insidieux que les cas plus médiatisés de discrimination algorithmique, ils possèdent le potentiel d'avoir des effets durables sur l'emploi et la mobilité socio-économique », a-t-elle conclu.
Des observateurs estimaient que l'IA peut éliminer les biais dans le processus de recrutement
En juillet...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.