IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA peut-elle éliminer les biais dans le processus de recrutement ? Non, d'après une étude
Qui estime que le logiciel de recrutement d'IA est une « pseudoscience automatisée »

Le , par Stéphane le calme

12PARTAGES

13  0 
Les partisans des algorithmes d'apprentissage automatique formés pour analyser le langage corporel et prédire l'intelligence émotionnelle des candidats pensent que le logiciel offre un moyen plus juste d'évaluer les travailleurs s'il ne tient pas compte du sexe et de la race. Ils soutiennent que les nouveaux outils pourraient éliminer les préjugés humains et aider les entreprises à atteindre leurs objectifs de diversité, d'équité et d'inclusion en embauchant davantage de personnes issues de groupes sous-représentés.

D'ailleurs, ceux qui sont à l'origine de cette technologie affirment qu'elle annule les préjugés humains contre le sexe et l'ethnicité lors du recrutement, en utilisant à la place des algorithmes qui lisent le vocabulaire, les modèles de discours et même les micro-expressions faciales pour évaluer d'énormes bassins de candidats à un emploi pour le bon type de personnalité et la « culture adaptée ».

Pourtant, ces affirmations selon lesquelles les logiciels de recrutement basés sur l'IA peuvent stimuler la diversité des nouvelles recrues sur un lieu de travail ont été démystifiées dans une étude publiée cette semaine.


Aux États-Unis, certains employeurs se sont servis de systèmes de recrutement s'appuyant sur l'intelligence artificielle. Ils permettent de remodeler la façon dont les entreprises évaluent leurs effectifs (et aussi la façon dont les employés potentiels prouvent leur valeur).

Conçu par la société de technologie de recrutement HireVue, le système utilise des caméras d’ordinateur ou de téléphone portable des candidats pour analyser leurs mouvements faciaux, leur choix de mots et leur voix avant de les classer par rapport à d’autres candidats sur la base d’un score « d’employabilité » généré automatiquement.

En octobre 2019, le Washington Post notait que les « évaluations appuyées par l'IA » de HireVue sont devenues si omniprésentes dans certains secteurs, notamment l'hôtellerie et la finance, que les universités s'efforçaient de former les étudiants à la recherche des meilleurs résultats. À cette période, plus de 100 employeurs utilisaient le système, y compris Hilton, Unilever et Goldman Sachs, et plus d'un million de demandeurs d'emploi avaient été analysés.

Certains chercheurs en intelligence artificielle ont estimé que ce système est un mélange infondé de mesures superficielles et de calculs arbitraires qui n’est pas enraciné dans des faits scientifiques. Analyser un être humain de la sorte, affirment-ils, risquerait de pénaliser des interlocuteurs qui ne sont pas du coin, des interviewés visiblement nerveux ou toute autre personne qui ne correspondrait pas au modèle de regard et de langage.

Le système, soutiennent-ils, assumera un rôle crucial pour aider à décider de la carrière d’une personne. Mais les chercheurs doutent que ledit système sache même ce qu’il cherche : en quoi un employé parfait ressemblerait-il ?

« C’est un développement profondément troublant de constater que notre technologie brevetée prétend différencier un travailleur productif d’un travailleur qui n’est pas en forme, en fonction de leurs mouvements faciaux, de leur ton de voix et de leurs manières », a déclaré Meredith Whittaker, co fondatrice de l'AI Now Institute, un centre de recherche à New York. « C’est la pseudoscience. C’est une licence pour discriminer », a-t-elle ajouté. « Et les personnes dont la vie et les opportunités sont littéralement façonnées par ces systèmes n’ont aucune chance de s’investir ».


L'IA peut-elle éliminer les biais dans le processus de recrutement ? Non, d'après une récente étude

un article publié dans la revue Philosophy and Technology par des chercheurs de l'Université de Cambridge démontre cependant que le logiciel n'est guère plus qu'une « pseudoscience automatisée ».

En guise d'introduction, ils expliquent ce qui les a motivés à travailler sur le sujet :

Citation Envoyé par Rapport de l'étude
À la mi-avril 2020, quelques mois seulement après le début de la pandémie de COVID-19, un sondage Gartner, Inc. auprès de 334 responsables RH a révélé que 86 % des organisations intégraient de nouvelles technologies virtuelles dans leurs pratiques d'embauche. Alors que les restrictions du confinement devraient persister, que l'adoption de l'intelligence artificielle (IA) augmente rapidement dans tous les domaines et que les praticiens du recrutement sont insatisfaits des méthodes traditionnelles, il n'est pas surprenant que HireVue ait noté une augmentation de 614 % de l'activité d'embauche d'IA de ses clients japonais.

Alors que HireVue n'utilise plus l'IA dans son logiciel de recrutement vidéo suite à un audit externe, d'autres sociétés interviennent pour lui succéder, notamment Retorio et myInterview, fondées respectivement en 2018 et 2016. Ces outils vidéo de ressources humaines alimentés par l'IA prétendent simultanément rationaliser et supprimer les préjugés dans le processus de recrutement. Ce faisant, ils promettent de résoudre deux défis clés auxquels les professionnels des RH sont actuellement confrontés : premièrement, l'augmentation de la charge de travail provoquée par le recrutement à volume élevé ; et deuxièmement, la pression pour atteindre les objectifs de diversité, d'égalité et d'inclusion de l'entreprise.

Nous nous concentrons spécifiquement sur Retorio et myInterview en tant que deux outils de recrutement vidéo IA de premier plan, ainsi que sur HireVue, qui utilise désormais une analyse de mots clés basée sur l'IA basée sur son IA de recrutement vidéo à la retraite.
Dans l'article, les auteurs ont remis en question les affirmations de ces entreprises selon lesquelles leurs produits sont capables d'éliminer les biais dans le processus d'embauche et, ce faisant, de diversifier la main-d'œuvre de leurs clients.

Aussi, six étudiants de premier cycle en informatique ont reproduit un modèle commercial utilisé dans l'industrie pour examiner comment un logiciel de recrutement basé sur l'IA prédit la personnalité des individus à l'aide d'images de leur visage.

Surnommé la « machine à personnalité », le système recherche les « cinq grands » tropes de la personnalité : extraversion, amabilité, ouverture, conscience et névrosisme (prédisposition d'un individu à ressentir des émotions négatives, par opposition avec la stabilité émotionnelle). Ils ont découvert que les prédictions du logiciel étaient affectées par les changements dans les expressions faciales, l'éclairage et les arrière-plans des personnes, ainsi que par leur choix de vêtements. Ces caractéristiques n'ont rien à voir avec les capacités d'un demandeur d'emploi, donc l'utilisation de l'IA à des fins de recrutement est imparfaite, affirment les chercheurs.

« Le fait que les changements de lumière, de saturation et de contraste affectent votre score de personnalité en est la preuve », a déclaré Kerry Mackereth, associée de recherche postdoctorale au Centre d'études sur le genre de l'Université de Cambridge. Les résultats de l'article sont étayés par des études antérieures, qui ont montré comment le port de lunettes et d'un foulard dans une interview vidéo ou l'ajout d'une étagère à livres en arrière-plan peut diminuer les scores d'un candidat en matière de conscience et de névrosisme, a-t-elle noté.

Mackereth a également expliqué que ces outils sont probablement formés pour rechercher les attributs associés aux précédents candidats retenus et sont donc plus susceptibles de recruter des personnes d'apparence similaire au lieu de promouvoir la diversité.

« Les modèles d'apprentissage automatique sont compris comme prédictifs ; cependant, comme ils sont formés sur des données passées, ils réitèrent des décisions prises dans le passé, pas dans le futur. Au fur et à mesure que les outils apprennent à partir de cet ensemble de données préexistant, une boucle de rétroaction est créée entre ce que les entreprises perçoivent comme un employé idéal et les critères utilisés par les outils de recrutement automatisés pour sélectionner les candidats », a-t-elle déclaré.

Les chercheurs pensent que la technologie doit être réglementée plus strictement

« Nous craignons que certains vendeurs emballent des produits "d'huile de serpent" dans un emballage brillant et les vendent à des clients sans méfiance », a déclaré la coauteure Eleanor Drage, associée de recherche postdoctorale également au Center for Gender Studies.

« Bien que les entreprises n'agissent peut-être pas de mauvaise foi, il y a peu de responsabilités quant à la façon dont ces produits sont construits ou testés. En tant que telles, cette technologie et la façon dont elle est commercialisée pourraient devenir de dangereuses sources de désinformation sur la façon dont le recrutement peut être 'débiaisé' et rendu plus juste », a-t-elle ajouté.

Mackereth a déclaré que bien que la loi sur l'IA de l'Union européenne classe ces logiciels de recrutement comme « à haut risque », il n'est pas clair quelles règles sont appliquées pour réduire ces risques. « Nous pensons qu'il doit y avoir un examen beaucoup plus sérieux de ces outils et des allégations marketing qui sont faites à propos de ces produits, et que la réglementation des outils RH alimentés par l'IA devrait jouer un rôle beaucoup plus important dans l'agenda politique de l'IA ».

« Alors que les méfaits des outils de recrutement basés sur l'IA semblent être beaucoup plus latents et insidieux que les cas plus médiatisés de discrimination algorithmique, ils possèdent le potentiel d'avoir des effets durables sur l'emploi et la mobilité socio-économique », a-t-elle conclu.

Des observateurs estimaient que l'IA peut éliminer les biais dans le processus de recrutement

En juillet 2016, la multinationale anglo-néerlandaise Unilever a introduit l’intelligence artificielle à son processus de recrutement. Même son de cloche pour Entelo et Stella.ai qui font leur apparition après Unilever avec des plateformes en ligne d’automatisation du processus de recrutement basées sur l’intelligence artificielle. Ces entreprises vantent la technique pour sa capacité à opérer une extraction pertinente des candidats en s’appuyant sur la science des données. Dans le cas Unilever, les responsables soulignent que la technique a permis d’augmenter significativement l’embauche de candidats non blancs, mais aussi d’apporter plus de diversité en matière de genre et de milieu social d’origine.

L’aspect qui s’imbrique au précédent est celui de la neutralité que ces dernières lui attribuent. « L’algorithme effectue uniquement des correspondances sur la base des données qui lui sont fournies . Il ne scrute que les compétences et les industries », déclare Rich Joffe – CEO de Stella.ai.

Il faut le reconnaître, parcourir une pile de CV à la recherche de la perle rare est un exercice fastidieux et parfois improductif. Lorsqu’il faut effectuer une tâche de façon répétitive et sur la durée, un ordinateur est assurément mieux outillé. C’est probablement la raison pour laquelle Rich Joffe a ajouté que « bien qu’aucun algorithme ne soit livré avec une garantie d’infaillibilité, je crois qu’ils sont meilleurs que les humains. »

Source : résultats de la recherche

Et vous ?

Pensez-vous que l'IA peut éliminer les biais dans le processus de recrutement ou partagez-vous les conclusions de cette étude qui estime que non ?
Êtes-vous pour ou contre l'emploi de tels logiciels dans le cadre du recrutement ? Pourquoi ?
Avez-vous déjà eu à passer un entretien d’embauche avec une IA comme recruteur ? Partagez votre expérience. Quels sont les aspects qui vous ont plu (horripilé) ?
Est-il possible de créer une intelligence artificielle qui n’exhibe pas de biais ?

Voir aussi :

Les entreprises devraient-elles utiliser l'IA pour surveiller les habitudes de travail de leurs employés ? Xsolla licencie 150 employés sur la base d'une analyse Big Data de leur activité

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de totozor
Membre expérimenté https://www.developpez.com
Le 14/10/2022 à 8:05
Citation Envoyé par Stéphane le calme Voir le message
Conçu par la société de technologie de recrutement HireVue, le système utilise des caméras d’ordinateur ou de téléphone portable des candidats pour analyser leurs mouvements faciaux, leur choix de mots et leur voix avant de les classer par rapport à d’autres candidats sur la base d’un score « d’employabilité » généré automatiquement.
Le choix des mots et l'intonation sont déjà des biais : le vocabulaire est un marqueur social significatif et un étranger qui ne pratique pas sa langue maternelle va avoir un vocabulaire plus simple (moins engagé) et une intonation plus hésitante.
L'analyse des mouvements faciaux est aussi un biais culturel (au Japon(?) exprimer son émotion en publique est mal vu) et qui va handicaper les personnes sur le spectre autistique.
En octobre 2019, le Washington Post notait que les « évaluations appuyées par l'IA » de HireVue sont devenues si omniprésentes dans certains secteurs, notamment l'hôtellerie et la finance, que les universités s'efforçaient de former les étudiants à la recherche des meilleurs résultats. À cette période, plus de 100 employeurs utilisaient le système, y compris Hilton, Unilever et Goldman Sachs, et plus d'un million de demandeurs d'emploi avaient été analysés.
C'est marrant comme on parle des secteurs les plus éthiques , ceux où on te demande d'optimiser le rapport engagement/rémunération.
Mais les chercheurs doutent que ledit système sache même ce qu’il cherche : en quoi un employé parfait ressemblerait-il ?
On a eu cette discussion pendant une formation sur la donnée et son traitement.
La réponse du formateur a été simple : on a des paramètres, on a un flag "bon employé" (oui/non). L'IA est concue pour optimiser le taux de oui, elle saura d'elle même quoi choisir.
Quand je lui ai demandé si le résultat était un homme blanc de 30-35 ans en chemise avec un BAC+5 sa réponse a été aussi simple : Je n'ai pas les chiffres.

Je me pose une question : alors que le taux de burn out augmente pouquoi se concentre t on sur le remplacement de ces personnes et pas sur la prévention de ceux ci? Ou de la détection des signes avant coureurs?
Pour moi la réponse est qu'analyser ça remet en cause les managers, ce qui fait très peur aux RH.
2  0