IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les entreprises comme Walmart et Delta utilisent l'IA pour surveiller en temps réel les messages des employés sur les applications de collaboration,
Afin de contrôler le sentiment et la toxicité

Le , par Mathis Lucas

11PARTAGES

8  0 
L'utilisation de l'IA pour surveiller les employés sur le lieu du travail semble avoir pris de l'ampleur dans les grandes entreprises comme Walmart, Delta, T-Mobile, Chevron et Starbucks. Aware, une société spécialisée dans l'analyse des messages des employés, fournit des outils d'IA qui permettent aux entreprises de surveiller leurs employés, notamment les conversations sur les canaux de collaboration et de messagerie comme Teams et Zoom. Cette forme de surveillance semble nettement plus invasive que les méthodes utilisées par le passé. Les experts et les défenseurs de la vie privée dénoncent cette pratique et appellent à une réglementation visant à l'interdire.

Un rapport publié récemment par CNBC indique que l'IA ne se contente pas d'arracher les emplois de certains travailleurs : elle est également chargée de scruter en temps réel les interactions entre ceux qui réussissent à conserver leurs places dans les entreprises. Il indique qu'un certain nombre de grandes entreprises américaines utilisent des systèmes de surveillance basés sur l'IA pour analyser les communications des employés dans des applications professionnelles populaires telles que Slack, Teams, Zoom, etc. La tendance aurait également gagné l'Europe avec des marques telles que Nestlé et AstraZeneca.

Le rapport révèle que ces grandes entreprises utilisent une technologie fournie par Aware, une startup basée à Columbus, dans l'Ohio, aux États-Unis. Aware affirme qu'il fournit une plateforme d'intelligence contextuelle qui identifie et atténue les risques, renforce la sécurité et la conformité, et découvre des informations commerciales en temps réel à partir de conversations numériques à grande échelle. Les conversations numériques auxquelles Aware fait allusion dans la description de son produit sont les discussions que les travailleurs ont sur les applications de productivité et de collaboration.


Le produit phare d'Aware vise à surveiller le "sentiment" et la "toxicité" en utilisant des capacités de détection et d'analyse de la parole et de l'image pour observer les discussions des gens et leurs sentiments sur diverses questions. Le cofondateur et PDG d'Aware, Jeff Schuman, a expliqué que les rapports élaborés par le logiciel sont anonymisés et qu'il ne permet pas d'identifier les travailleurs. Il a ajouté que le logiciel permet aux entreprises de connaître en temps réel le sentiment des employés, plutôt que de dépendre d'une enquête annuelle ou semestrielle. Répondant aux questions de CNBC, Schuman a déclaré :

« Il n'y aura pas de noms de personnes, pour protéger la vie privée. Les entreprises verront plutôt que peut-être la main-d'œuvre âgée de plus de 40 ans dans cette partie des États-Unis voit les changements apportés à [une] politique de manière très négative en raison du coût, mais que tous les autres, en dehors de cette tranche d'âge et de ce lieu, les voient de manière positive parce qu'ils sont touchés d'une manière différente ». Mais les experts ne sont pas d'accord avec Schuman. Bien que les données soient ostensiblement anonymes, des étiquettes peuvent être ajoutées pour les fonctions, l'âge, le sexe, etc.

Ce qui permet à la plateforme d'identifier si certains départements ou groupes démographiques réagissent plus ou moins positivement aux nouvelles politiques ou annonces de l'entreprise. Mais un autre outil proposé par Aware permet de signaler les messages de certaines personnes. Les choses empirent cependant avec un autre de leurs outils, l'eDiscovery. Il permet aux entreprises de nommer des personnes (des représentants des ressources humaines, des managers, des cadres supérieurs) qui pourraient identifier des individus spécifiques violant les politiques de "risque extrême" définies par une entreprise donnée.

Ces risques peuvent être légitimes, comme les menaces de violence, les brimades ou le harcèlement, mais il n'est pas difficile d'imaginer que le logiciel soit chargé de signaler des risques moins authentiques. En effet, d'après Schuman, les dizaines de modèles d'IA d'Aware, conçus pour lire les textes et traiter les images, seraient en mesure d'identifier les brimades, le harcèlement, la discrimination, la non-conformité, la pornographie, la nudité et d'autres comportements. Toutefois, les experts estiment que le logiciel d'Aware peut renfermer différents biais, ce qui signifie qu'il pourrait renvoyer de nombreux faux positifs.

Parlant du logiciel, Schuman a déclaré : « il suit en permanence le sentiment des employés en temps réel, et il suit en permanence la toxicité en temps réel. Si une banque utilise Aware et que le sentiment de ses employés monte en flèche au cours des 20 dernières minutes, c'est parce qu'ils parlent de quelque chose de positif, collectivement. La technologie serait en mesure de leur dire de quoi il s'agit ». Selon les experts, certains pourraient affirmer qu'il n'existe pas de droit ou d'attente en matière de protection de la vie privée sur les applications de messagerie interne et de collaboration utilisées en entreprise.

Cependant, la nouvelle d'un suivi analytique aura sans aucun doute un effet dissuasif sur la parole des gens. Il y a un monde de différence entre les méthodes traditionnelles de collecte passive de données et cette nouvelle surveillance en temps réel par l'IA. Aware s'empresse de souligner que les données de son produit sont anonymes, mais de nombreux critiques affirment que cette affirmation est très difficile à démontrer. L'absence de noms peut rendre les données sémantiquement anonymes, mais il suffit souvent d'une poignée de points de données pour identifier une personne (ou qui a dit quoi).


Des études remontant à plusieurs décennies ont montré qu'il était possible d'identifier des personnes dans des ensembles de données "anonymes" en utilisant très peu d'éléments d'information de base. Il sera intéressant de voir les répercussions lorsque les premiers licenciements auront lieu parce que l'IA a déterminé que le chat Teams d'une personne présentait un "risque extrême". Aware affirme avoir analysé plus de 20 milliards d'interactions entre plus de trois millions d'employés. Certains craignent qu'ils ne soient entrés dans un territoire orwellien, en référence au roman "1984" du regretté George Orwell.

En août 2021, la société russe de services de paiement Xsolla a licencié 150 employés en une seule fois. Ce qui a suscité la controverse n'est pas la réduction du personnel en elle-même, mais la lettre du PDG, dans laquelle il a tenté d'expliquer la raison de cette décision : l'IA. Le PDG et fondateur de Xsolla, Aleksandr Agapitov, a informé ses employés qu'ils ont été licenciés sur la base d'une analyse Big Data de leur activité. Xsolla a fait face à des réactions négatives pour ce qui a été perçu comme un espionnage secret de ses employés. De nombreuses personnes ont également critiqué le ton de la lettre.

Jutta Williams, cofondatrice de l'organisation à but non lucratif Humane Intelligence, a déclaré que l'IA ajoute une nouvelle dimension, potentiellement problématique, aux programmes de lutte contre le risque d'intrusion, qui existent depuis des années pour évaluer des phénomènes tels que l'espionnage d'entreprise, en particulier dans le cadre des communications par courriel. Elle a déclaré à propos de ces outils de surveillance : « une grande partie de cette technologie devient une forme de criminalité intellectuelle. Il s'agit de traiter les gens comme des stocks d'une manière que je n'ai jamais vue ».

Amba Kak, directrice générale du groupe "AI Now Institute" de l'université de New York, s'inquiète de l'utilisation de l'IA pour déterminer ce qui est considéré comme un comportement à risque. Elle a déclaré que la Federal Trade Commission (FTC) des États-Unis, le ministère américain de la Justice (DOJ) et l'Equal Employment Opportunity Commission (EEOC) ont tous exprimé des inquiétudes à ce sujet, bien qu'elle ne parlait pas spécifiquement de la technologie d'Aware. « Il s'agit autant de questions relatives aux droits des travailleurs qu'à la protection de la vie privée ».

Pendant des années, les entreprises ont surveillé le contenu des courriels de leurs employés, en mettant en place des outils et des règles pour vérifier passivement ce que les employés s'envoyaient les uns aux autres et envoyaient dans le monde. Toutefois, cette surveillance est appelée à devenir nettement plus invasive. Une autre préoccupation est que même les données agrégées peuvent être facilement désanonymisées lorsqu'elles sont rapportées à un niveau granulaire, "comme l'âge de l'employé, le lieu de travail, la division, l'ancienneté ou la fonction".

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la surveillance des employés avec des outils d'IA ?
Cette forme de surveillance va-t-elle à devenir la norme sur le marché du travail ?
Selon vous, cette forme de surveillance est-elle l'égale ? Sinon doit-elle être interdite ?
Quels pourraient être les impacts de cette surveillance sur les employés et les entreprises elles-mêmes ?

Voir aussi

Les entreprises devraient-elles utiliser l'IA pour surveiller les habitudes de travail de leurs employés ? Xsolla licencie 150 employés sur la base d'une analyse Big Data de leur activité

La pandémie a-t-elle normalisé les logiciels de surveillance des employés ? Des rapports indiquent que ces logiciels se répandent rapidement

Les entreprises technologiques ont déjà supprimé 34 000 emplois depuis le début de l'année pour se tourner vers l'IA, afin d'alimenter leur prochaine phase de croissance

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 12:50


0  0