IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une startup abandonne son projet de donner à l'IA des droits de "travailleur" après que les cadres de la Tech ont déclaré que "cela constitue un manque de respect pour l'humanité des vrais travailleurs"

Le , par Mathis Lucas

45PARTAGES

4  0 
La startup Lattice a récemment été confrontée à une avalanche de réactions négatives après avoir annoncé qu'elle intégrerait l'IA dans l'organigramme aux côtés des employés humains. Cela a poussé Lattice à faire marche arrière trois jours seulement après son annonce. Lattice, qui fournit des logiciels de ressources humaines, a appris à ses dépens que les employés ne sont pas tout à fait prêts à travailler aux côtés de leurs homologues de l'IA. L'initiative de Lattice a été critiquée comme étant "abjecte" dans la communauté et certains dirigeants du secteur de la technologie ont déclaré que "cela manquait de respect pour l'humanité des véritables employés".

Lattice est un fournisseur de logiciels de ressources humaines basé à San Francisco, en Californie. L'entreprise a été fondée en 2020 par Jack Altman, le frère de Sam Altman, PDG d'OpenAI, et était évaluée à 3 milliards de dollars en 2022. Lattice a annoncé mardi dernier que les clients seraient en mesure d'intégrer des agents d'IA dans la plateforme de Lattice afin d'être intégrés, de fixer des objectifs personnels et de se voir attribuer un responsable direct. Le but de Lattice est de donner aux agents d'IA les mêmes droits que les travailleurs humains et traiter la technologie comme un employé humain sur ses plateformes.

Pour mémoire, un agent d'IA est un logiciel capable d'interagir avec son environnement, collecter des données et les utiliser pour effectuer des tâches autodéterminées afin d'atteindre des objectifs prédéterminés. Sarah Franklin, PDG de Lattice, a déclaré qu'en traitant les agents d'IA comme n'importe quel employé humain, "les entreprises peuvent tirer parti de leur utilité tout en les tenant responsables des objectifs de l'entreprise". Mais Lattice a annoncé vendredi qu'il n'irait pas de l'avant avec ses projets d'agents d'IA, après que le post de Franklin sur LinkedIn a reçu plusieurs centaines de commentaires négatifs.


« Cette innovation a suscité beaucoup de conversations et de questions qui n'ont pas encore de réponses claires. Nous sommes impatients de continuer à travailler avec nos clients sur l'utilisation responsable de l'IA, mais nous ne poursuivrons pas les travailleurs numériques dans le produit », a déclaré Franklin dans un communiqué transmis à Fortune. L'annonce de la startup s'inscrivait dans le cadre de ses efforts visant à intégrer l'IA sur le lieu de travail de manière "responsable". Selon le message publié par Franklin sur LinkedIn, le projet de Lattice devrait constituer une preuve de concept à l'idée d'un "employé IA".

Franklin a déclaré : « cela fait passer l'idée d'un "employé IA" du concept à la réalité et marque le début d'un nouveau voyage pour Lattice, pour faire avancer les organisations dans l'embauche responsable de travailleurs numériques ». Mais l'annonce a heurté les utilisateurs de LinkedIn, qui ont réagi à l'annonce de Franklin en se disant choqués et inquiets pour l'avenir de l'intégration de l'IA dans l'espace de travail. « Cette stratégie et ce message manquent cruellement leur cible, et je le dis en tant que créateur d'une entreprise d'IA », a répondu Sawyer Middeleer, chef du personnel de la plateforme d'IA de vente Aomni.

« Traiter les agents d'IA comme des employés, c'est manquer de respect à l'humanité de vos vrais employés. Pire encore, cela implique que vous considérez les humains simplement comme des "ressources" à optimiser et à mesurer par rapport aux machines », a ajouté Middeleer. Lattice a été précédemment accusé d'avoir supprimé des emplois au profit de l'IA. L'annonce concernant l'embauche responsable d'agents d'IA comme employés intervient un an après que l'entreprise a licencié 15 % de son personnel, soit plus de 100 personnes, en janvier 2023, dans un contexte de ralentissement de l'embauche et des dépenses.

Citation Envoyé par Critique


Les dirigeants d'entreprise veulent absolument remplacer les humains par l'IA. Il est pathétique qu'ils soient prêts à dépenser des dizaines de millions de dollars pour des systèmes non formés qui ne font pas grand-chose d'autre que de faire des suppositions fondées sur un algorithme, juste pour pouvoir éliminer 10 % de leur main-d'œuvre.

Cela ne fait que renforcer l'idée selon laquelle le capital déteste le travail. Par ailleurs, je me pose quand même une question depuis le début de cette grande bulle de l'IA : qui achètera tous les produits et services de ces dirigeants d'entreprise si personne n'a d'emploi ni d'argent ?

Et ne me racontez pas d'âneries sur le revenu universel de base. Cela n'arrivera jamais, surtout dans des pays comme les États-Unis où l'on préfère vous laisser mourir dans un taudis plutôt que de vous verser 0,10 $ de plus sur votre salaire.

Franklin reconnaît que les agents d'IA peuvent commettre des erreurs, car "il suffit d'une seconde pour détruire une marque à cause d'une mauvaise interaction". Lattice est arrivé à la conclusion que la meilleure façon de s'assurer qu'un agent d'IA adhère aux valeurs de son employeur était de l'intégrer dans l'écosystème des RH. Franklin a déclaré qu'un agent d'IA introduit dans Lattice pourrait être formé à nouveau au manuel de l'employé d'une entreprise et à toutes les informations fonctionnelles dont la technologie aura besoin pour accomplir sa tâche, un processus que la PDG compare à l'intégration d'un être humain.


Franklin a déclaré : « si vous mettiez en place un agent commercial, par exemple, vous lui diriez à quel point il doit être persévérant, vous lui donneriez une matrice de remise et vous lui diriez quelles concessions il est prêt à faire ». Comme pour l'intégration des humains, ce processus peut également impliquer la signature d'un accord de confidentialité. Selon Franklin, actuellement, ces agents d'IA sont recrutés dans l'ombre. Mais les critiques affirment que cette idée est "absurde". L'idée de Lattice suscite également de nombreuses préoccupations, notamment en matière de sécurité en raison de l'hallucination des LLM.

Le rôle de l'IA sur le lieu de travail suscite déjà une inquiétude croissante, d'autant plus que son utilisation prolifère dans tous les secteurs d'activité. Selon un rapport de Goldman Sachs datant de mars 2023, l'IA pourrait remplacer ou dégrader jusqu'à 300 millions d'emplois aux États-Unis et en Europe. L'investisseur en capital-risque Kai-Fu Lee s'attend à ce que 50 % des travailleurs humains soient remplacés par l'IA d'ici 2027. En raison de ces prédictions, les travailleurs se disant inquiets de voir leur emploi remplacé par l'IA. La transition de Lattice vers l'IA n'a pas aidé à apaiser les inquiétudes des travailleurs humains.

Pour certains commentateurs, l'idée de Lattice pourrait être assimilée à une forme de fraude salariale. « Vous n'êtes pas la première entreprise à créer des dossiers d'employés qui n'existent pas physiquement. On les appelle des "employés fantômes" et il s'agit généralement d'une forme de fraude salariale », a déclaré Jack Deeth, ingénieur chez Donorfy, un fournisseur de logiciels de gestion de la relation client (CRM) pour les organisations à but non lucratif. Un autre critique a écrit : « j'ai déjà vu des idées stupides, mais celle-ci est de loin la meilleure. A-t-elle été suggérée par l'IA par hasard ? ». Un autre a souligné :

Citation Envoyé par Critique


En effet, les investisseurs et les entreprises pourraient être profondément déçus lorsque le battage médiatique et la folie spéculative s'estomperont. Les grands modèles de langage (LLM) sont fondamentalement une autocomplétion extrêmement robuste. Cependant, quelle que soit leur capacité à prédire le mot suivant dans une phrase pour donner une réponse cohérente à votre question, ils ne deviendront jamais sensibles.

L'ajout de toutes les données qui ont existé ou existeront un jour n'y changera rien, pas plus que l'ajout de détails à un mannequin de magasin n'en fera une personne réelle. Il y a ce mouvement bizarre de techno-superstition qui se développe autour de l'IA et qui est propagé par des hommes d'idées qui ne connaissent rien à la technologie et ça m'énerve vraiment chaque fois qu'une personne stupide sort et dit que son IA est sensible.

Les premières répercussions de l'IA sur le lieu de travail commencent déjà à faire des vagues, mais peut-être pas de la manière dont les travailleurs anxieux l'avaient prévu au départ. Dans le cadre d'un changement stratégique visant à investir dans l'IA générative, Intuit va licencier 1 800 travailleurs. L'effort n'a rien à voir avec la réduction des coûts. L'éditeur de logiciels financiers a déclaré qu'il réembaucherait à la place presque le même nombre d'employés qui sont mieux adaptés au poste. L'entreprise a fait savoir qu'environ 1 000 des travailleurs licenciés n'ont pas répondu aux attentes en matière de performances.


Toutefois, les leaders de la technologie ne sont pas convaincus que ces licenciements sont le signe avant-coureur d'une vague d'agents d'IA qui prendront le contrôle des emplois. Bien que la technologie puisse éventuellement remplacer certains emplois à la chaîne et certaines tâches administratives et analytiques, ce qui pourrait entraîner des licenciements, les responsabilités telles que la stratégie de marque et la gestion ne sont pas encore menacées.

« Je parle à de nombreux PDG et j'ai très vite compris qu'ils ne pensent pas que l'IA va nous remplacer. Je peux l'affirmer en toute connaissance de cause », a déclaré à Fortune Ronnie Sheth, PDG de la société de conseil Senen Group. Selon lui, les PDG s'intéressent davantage à la construction et à la préservation d'une culture d'entreprise forte qu'aux avantages quantitatifs que l'IA pourrait apporter. Il y a également de nombreuses questions sans réponses.

En outre, selon Sheth, l'ajout de l'IA sur les lieux de travail ne signifie pas nécessairement que les employés ne peuvent pas trouver des opportunités de travail intéressantes ailleurs. « Je pense qu'il existe un équilibre entre le redimensionnement de la main-d'œuvre et la mise en place de politiques visant à garantir que l'IA est utilisée pour le bien de l'humanité. Et ne pas priver les gens de leurs moyens de subsistance », a-t-elle déclaré.

Source : Lattice

Et vous ?

Quel est votre avis sur le sujet ?
Une IA peut-elle avoir les mêmes droits qu'un travailleur humain ?
L'idée est-elle fondée ? Quelles sont les préoccupations éthiques que pose cette initiative ?
Que pensez-vous de la critique selon laquelle cette idée est un manque de respect à l'humanité des vrais employés ?

Voir aussi

L'IA frappe les travailleurs comme un "tsunami" et est susceptible d'avoir un impact sur 40 % des emplois dans le monde au cours des deux prochaines années, selon la directrice générale du FMI

L'IA devrait toucher 40 % des emplois et jusqu'à 60% pour les économies avancées, et aggraver les inégalités, selon le FMI

Des équipes d'agents LLM peuvent exploiter de manière autonome des vulnérabilités de type "zero-day", les acteurs "black-hat" peuvent désormais utiliser des agents d'IA pour pirater des sites Web

Une erreur dans cette actualité ? Signalez-nous-la !