IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une startup abandonne son projet de donner à l'IA des droits de "travailleur" après que les cadres de la Tech ont déclaré que "cela constitue un manque de respect pour l'humanité des vrais travailleurs"

Le , par Mathis Lucas

61PARTAGES

4  0 
Une startup abandonne son projet de donner à l'IA des droits de "travailleur" après que les cadres de la Tech ont déclaré que "cela constitue un manque de respect pour l'humanité des vrais travailleurs"

La startup Lattice a récemment été confrontée à une avalanche de réactions négatives après avoir annoncé qu'elle intégrerait l'IA dans l'organigramme aux côtés des employés humains. Cela a poussé Lattice à faire marche arrière trois jours seulement après son annonce. Lattice, qui fournit des logiciels de ressources humaines, a appris à ses dépens que les employés ne sont pas tout à fait prêts à travailler aux côtés de leurs homologues de l'IA. L'initiative de Lattice a été critiquée comme étant "abjecte" dans la communauté et certains dirigeants du secteur de la technologie ont déclaré que "cela manquait de respect pour l'humanité des véritables employés".

Lattice est un fournisseur de logiciels de ressources humaines basé à San Francisco, en Californie. L'entreprise a été fondée en 2020 par Jack Altman, le frère de Sam Altman, PDG d'OpenAI, et était évaluée à 3 milliards de dollars en 2022. Lattice a annoncé mardi dernier que les clients seraient en mesure d'intégrer des agents d'IA dans la plateforme de Lattice afin d'être intégrés, de fixer des objectifs personnels et de se voir attribuer un responsable direct. Le but de Lattice est de donner aux agents d'IA les mêmes droits que les travailleurs humains et traiter la technologie comme un employé humain sur ses plateformes.

Pour mémoire, un agent d'IA est un logiciel capable d'interagir avec son environnement, collecter des données et les utiliser pour effectuer des tâches autodéterminées afin d'atteindre des objectifs prédéterminés. Sarah Franklin, PDG de Lattice, a déclaré qu'en traitant les agents d'IA comme n'importe quel employé humain, "les entreprises peuvent tirer parti de leur utilité tout en les tenant responsables des objectifs de l'entreprise". Mais Lattice a annoncé vendredi qu'il n'irait pas de l'avant avec ses projets d'agents d'IA, après que le post de Franklin sur LinkedIn a reçu plusieurs centaines de commentaires négatifs.


« Cette innovation a suscité beaucoup de conversations et de questions qui n'ont pas encore de réponses claires. Nous sommes impatients de continuer à travailler avec nos clients sur l'utilisation responsable de l'IA, mais nous ne poursuivrons pas les travailleurs numériques dans le produit », a déclaré Franklin dans un communiqué transmis à Fortune. L'annonce de la startup s'inscrivait dans le cadre de ses efforts visant à intégrer l'IA sur le lieu de travail de manière "responsable". Selon le message publié par Franklin sur LinkedIn, le projet de Lattice devrait constituer une preuve de concept à l'idée d'un "employé IA".

Franklin a déclaré : « cela fait passer l'idée d'un "employé IA" du concept à la réalité et marque le début d'un nouveau voyage pour Lattice, pour faire avancer les organisations dans l'embauche responsable de travailleurs numériques ». Mais l'annonce a heurté les utilisateurs de LinkedIn, qui ont réagi à l'annonce de Franklin en se disant choqués et inquiets pour l'avenir de l'intégration de l'IA dans l'espace de travail. « Cette stratégie et ce message manquent cruellement leur cible, et je le dis en tant que créateur d'une entreprise d'IA », a répondu Sawyer Middeleer, chef du personnel de la plateforme d'IA de vente Aomni.

« Traiter les agents d'IA comme des employés, c'est manquer de respect à l'humanité de vos vrais employés. Pire encore, cela implique que vous considérez les humains simplement comme des "ressources" à optimiser et à mesurer par rapport aux machines », a ajouté Middeleer. Lattice a été précédemment accusé d'avoir supprimé des emplois au profit de l'IA. L'annonce concernant l'embauche responsable d'agents d'IA comme employés intervient un an après que l'entreprise a licencié 15 % de son personnel, soit plus de 100 personnes, en janvier 2023, dans un contexte de ralentissement de l'embauche et des dépenses.

Citation Envoyé par Critique

Les dirigeants d'entreprise veulent absolument remplacer les humains par l'IA. Il est pathétique qu'ils soient prêts à dépenser des dizaines de millions de dollars pour des systèmes non formés qui ne font pas grand-chose d'autre que de faire des suppositions fondées sur un algorithme, juste pour pouvoir éliminer 10 % de leur main-d'œuvre.

Cela ne fait que renforcer l'idée selon laquelle le capital déteste le travail. Par ailleurs, je me pose quand même une question depuis le début de cette grande bulle de l'IA : qui achètera tous les produits et services de ces dirigeants d'entreprise si personne n'a d'emploi ni d'argent ?

Et ne me racontez pas d'âneries sur le revenu universel de base. Cela n'arrivera jamais, surtout dans des pays comme les États-Unis où l'on préfère vous laisser mourir dans un taudis plutôt que de vous verser 0,10 $ de plus sur votre salaire.

Franklin reconnaît que les agents d'IA peuvent commettre des erreurs, car "il suffit d'une seconde pour détruire une marque à cause d'une mauvaise interaction". Lattice est arrivé à la conclusion que la meilleure façon de s'assurer qu'un agent d'IA adhère aux valeurs de son employeur était de l'intégrer dans l'écosystème des RH. Franklin a déclaré qu'un agent d'IA introduit dans Lattice pourrait être formé à nouveau au manuel de l'employé d'une entreprise et à toutes les informations fonctionnelles dont la technologie aura besoin pour accomplir sa tâche, un processus que la PDG compare à l'intégration d'un être humain.


Franklin a déclaré : « si vous mettiez en place un agent commercial, par exemple, vous lui diriez à quel point il doit être persévérant, vous lui donneriez une matrice de remise et vous lui diriez quelles concessions il est prêt à faire ». Comme pour l'intégration des humains, ce processus peut également impliquer la signature d'un accord de confidentialité. Selon Franklin, actuellement, ces agents d'IA sont recrutés dans l'ombre. Mais les critiques affirment que cette idée est "absurde". L'idée de Lattice suscite également de nombreuses préoccupations, notamment en matière de sécurité en raison de l'hallucination des LLM.

Le rôle de l'IA sur le lieu de travail suscite déjà une inquiétude croissante, d'autant plus que son utilisation prolifère dans tous les secteurs d'activité. Selon un rapport de Goldman Sachs datant de mars 2023, l'IA pourrait remplacer ou dégrader jusqu'à 300 millions d'emplois aux États-Unis et en Europe. L'investisseur en capital-risque Kai-Fu Lee s'attend à ce que 50 % des travailleurs humains soient remplacés par l'IA d'ici 2027. En raison de ces prédictions, les travailleurs se disant inquiets de voir leur emploi remplacé par l'IA. La transition de Lattice vers l'IA n'a pas aidé à apaiser les inquiétudes des travailleurs humains.

Pour certains commentateurs, l'idée de Lattice pourrait être assimilée à une forme de fraude salariale. « Vous n'êtes pas la première entreprise à créer des dossiers d'employés qui n'existent pas physiquement. On les appelle des "employés fantômes" et il s'agit généralement d'une forme de fraude salariale », a déclaré Jack Deeth, ingénieur chez Donorfy, un fournisseur de logiciels de gestion de la relation client (CRM) pour les organisations à but non lucratif. Un autre critique a écrit : « j'ai déjà vu des idées stupides, mais celle-ci est de loin la meilleure. A-t-elle été suggérée par l'IA par hasard ? ». Un autre a souligné :

[QUOTE=Critique]

En effet, les investisseurs et les entreprises pourraient être profondément déçus lorsque le battage médiatique et la folie spéculative s'estomperont. Les grands modèles de langage (LLM) sont fondamentalement une autocomplétion extrêmement robuste. Cependant, quelle que soit leur capacité à prédire le mot suivant dans une phrase pour donner une réponse cohérente à votre question, ils ne deviendront jamais sensibles.

L'ajout de toutes les données qui ont existé ou existeront un jour n'y changera rien, pas plus que l'ajout de détails à un mannequin de magasin n'en fera une personne réelle. Il y a ce mouvement bizarre de techno-superstition qui se développe autour[/quote=critique]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !