D'ailleurs, ceux qui sont à l'origine de cette technologie affirment qu'elle annule les préjugés humains contre le sexe et l'ethnicité lors du recrutement, en utilisant à la place des algorithmes qui lisent le vocabulaire, les modèles de discours et même les micro-expressions faciales pour évaluer d'énormes bassins de candidats à un emploi pour le bon type de personnalité et la « culture adaptée ».
Pourtant, ces affirmations selon lesquelles les logiciels de recrutement basés sur l'IA peuvent stimuler la diversité des nouvelles recrues sur un lieu de travail ont été démystifiées dans une étude publiée cette semaine.
Aux États-Unis, certains employeurs se sont servis de systèmes de recrutement s'appuyant sur l'intelligence artificielle. Ils permettent de remodeler la façon dont les entreprises évaluent leurs effectifs (et aussi la façon dont les employés potentiels prouvent leur valeur).
Conçu par la société de technologie de recrutement HireVue, le système utilise des caméras d’ordinateur ou de téléphone portable des candidats pour analyser leurs mouvements faciaux, leur choix de mots et leur voix avant de les classer par rapport à d’autres candidats sur la base d’un score « d’employabilité » généré automatiquement.
En octobre 2019, le Washington Post notait que les « évaluations appuyées par l'IA » de HireVue sont devenues si omniprésentes dans certains secteurs, notamment l'hôtellerie et la finance, que les universités s'efforçaient de former les étudiants à la recherche des meilleurs résultats. À cette période, plus de 100 employeurs utilisaient le système, y compris Hilton, Unilever et Goldman Sachs, et plus d'un million de demandeurs d'emploi avaient été analysés.
Certains chercheurs en intelligence artificielle ont estimé que ce système est un mélange infondé de mesures superficielles et de calculs arbitraires qui n’est pas enraciné dans des faits scientifiques. Analyser un être humain de la sorte, affirment-ils, risquerait de pénaliser des interlocuteurs qui ne sont pas du coin, des interviewés visiblement nerveux ou toute autre personne qui ne correspondrait pas au modèle de regard et de langage.
Le système, soutiennent-ils, assumera un rôle crucial pour aider à décider de la carrière d’une personne. Mais les chercheurs doutent que ledit système sache même ce qu’il cherche : en quoi un employé parfait ressemblerait-il ?
« C’est un développement profondément troublant de constater que notre technologie brevetée prétend différencier un travailleur productif d’un travailleur qui n’est pas en forme, en fonction de leurs mouvements faciaux, de leur ton de voix et de leurs manières », a déclaré Meredith Whittaker, co fondatrice de l'AI Now Institute, un centre de recherche à New York. « C’est la pseudoscience. C’est une licence pour discriminer », a-t-elle ajouté. « Et les personnes dont la vie et les opportunités sont littéralement façonnées par ces systèmes n’ont aucune chance de s’investir ».
L'IA peut-elle éliminer les biais dans le processus de recrutement ? Non, d'après une récente étude
un article publié dans la revue Philosophy and Technology par des chercheurs de l'Université de Cambridge démontre cependant que le logiciel n'est guère plus qu'une « pseudoscience automatisée ».
En guise d'introduction, ils expliquent ce qui les a motivés à travailler sur le sujet :
Envoyé par Rapport de l'étude
Aussi, six étudiants de premier cycle en informatique ont reproduit un modèle commercial utilisé dans l'industrie pour examiner comment un logiciel de recrutement basé sur l'IA prédit la personnalité des individus à l'aide d'images de leur visage.
Surnommé la « machine à personnalité », le système recherche les « cinq grands » tropes de la personnalité : extraversion, amabilité, ouverture, conscience et névrosisme (prédisposition d'un individu à ressentir des émotions négatives, par opposition avec la stabilité émotionnelle). Ils ont découvert que les prédictions du logiciel étaient affectées par les changements dans les expressions faciales, l'éclairage et les arrière-plans des personnes, ainsi que par leur choix de vêtements. Ces caractéristiques n'ont rien à voir avec les capacités d'un demandeur d'emploi, donc l'utilisation de l'IA à des fins de recrutement est imparfaite, affirment les chercheurs.
« Le fait que les changements de lumière, de saturation et de contraste affectent votre score de personnalité en est la preuve », a déclaré Kerry Mackereth, associée de recherche postdoctorale au Centre d'études sur le genre de l'Université de Cambridge. Les résultats de l'article sont étayés par des études antérieures, qui ont montré comment le port de lunettes et d'un foulard dans une interview vidéo ou l'ajout d'une étagère à livres en arrière-plan peut diminuer les scores d'un candidat en matière de conscience et de névrosisme, a-t-elle noté.
Mackereth a également expliqué que ces outils sont probablement formés pour rechercher les attributs associés aux précédents candidats retenus et sont donc plus susceptibles de recruter des personnes d'apparence similaire au lieu de promouvoir la diversité.
« Les modèles d'apprentissage automatique sont compris comme prédictifs ; cependant, comme ils sont formés sur des données passées, ils réitèrent des décisions prises dans le passé, pas dans le futur. Au fur et à mesure que les outils apprennent à partir de cet ensemble de données préexistant, une boucle de rétroaction est créée entre ce que les entreprises perçoivent comme un employé idéal et les critères utilisés par les outils de recrutement automatisés pour sélectionner les candidats », a-t-elle déclaré.
Les chercheurs pensent que la technologie doit être réglementée plus strictement
« Nous craignons que certains vendeurs emballent des produits "d'huile de serpent" dans un emballage brillant et les vendent à des clients sans méfiance », a déclaré la coauteure Eleanor Drage, associée de recherche postdoctorale également au Center for Gender Studies.
« Bien que les entreprises n'agissent peut-être pas de mauvaise foi, il y a peu de responsabilités quant à la façon dont ces produits sont construits ou testés. En tant que telles, cette technologie et la façon dont elle est commercialisée pourraient devenir de dangereuses sources de désinformation sur la façon dont le recrutement peut être 'débiaisé' et rendu plus juste », a-t-elle ajouté.
Mackereth a déclaré que bien que la loi sur l'IA de l'Union européenne classe ces logiciels de recrutement comme « à haut risque », il n'est pas clair quelles règles sont appliquées pour réduire ces risques. « Nous pensons qu'il doit y avoir un examen beaucoup plus sérieux de ces outils et des allégations marketing qui sont faites à propos de ces produits, et que la réglementation des outils RH alimentés par l'IA devrait jouer un rôle beaucoup plus important dans l'agenda politique de l'IA ».
« Alors que les méfaits des outils de recrutement basés sur l'IA semblent être beaucoup plus latents et insidieux que les cas plus médiatisés de discrimination algorithmique, ils possèdent le potentiel d'avoir des effets durables sur l'emploi et la mobilité socio-économique », a-t-elle conclu.
Des observateurs estimaient que l'IA peut éliminer les biais dans le processus de recrutement
En juillet 2016, la multinationale anglo-néerlandaise Unilever a introduit l’intelligence artificielle à son processus de recrutement. Même son de cloche pour Entelo et Stella.ai qui font leur apparition après Unilever avec des plateformes en ligne d’automatisation du processus de recrutement basées sur l’intelligence artificielle. Ces entreprises vantent la technique pour sa capacité à opérer une extraction pertinente des candidats en s’appuyant sur la science des données. Dans le cas Unilever, les responsables soulignent que la technique a permis d’augmenter significativement l’embauche de candidats non blancs, mais aussi d’apporter plus de diversité en matière de genre et de milieu social d’origine.
L’aspect qui s’imbrique au précédent est celui de la neutralité que ces dernières lui attribuent. « L’algorithme effectue uniquement des correspondances sur la base des données qui lui sont fournies . Il ne scrute que les compétences et les industries », déclare Rich Joffe – CEO de Stella.ai.
Il faut le reconnaître, parcourir une pile de CV à la recherche de la perle rare est un exercice fastidieux et parfois improductif. Lorsqu’il faut effectuer une tâche de façon répétitive et sur la durée, un ordinateur est assurément mieux outillé. C’est probablement la raison pour laquelle Rich Joffe a ajouté que « bien qu’aucun algorithme ne soit livré avec une garantie d’infaillibilité, je crois qu’ils sont meilleurs que les humains. »
Source : résultats de la recherche
Et vous ?
Pensez-vous que l'IA peut éliminer les biais dans le processus de recrutement ou partagez-vous les conclusions de cette étude qui estime que non ?
Êtes-vous pour ou contre l'emploi de tels logiciels dans le cadre du recrutement ? Pourquoi ?
Avez-vous déjà eu à passer un entretien d’embauche avec une IA comme recruteur ? Partagez votre expérience. Quels sont les aspects qui vous ont plu (horripilé) ?
Est-il possible de créer une intelligence artificielle qui n’exhibe pas de biais ?
Voir aussi :
Les entreprises devraient-elles utiliser l'IA pour surveiller les habitudes de travail de leurs employés ? Xsolla licencie 150 employés sur la base d'une analyse Big Data de leur activité