
Le PDG Sundar Pichai lui-même est intervenu dans l'affaire et a demandé au duo de continuer à travailler dessus. Cependant, sans aucune assurance de rendre le chatbot public, les ingénieurs ont quitté Google en 2021 et ont créé leur propre entreprise qui fournit des chatbots interactifs qui peuvent jouer le rôle de Socrates ou d'Elon Musk.
Les chatbots conversationnels sont la nouveauté brillante dans l'industrie technologique, les entreprises cherchant à les intégrer à leurs produits. Microsoft a pris une longueur d'avance en cherchant à faire avancer de manière agressive les avantages découlant de son partenariat avec OpenAI. Google, d'autre part, a été dans les cordes après que son chatbot Bard ait non seulement fait une entrée très retardée, mais s'est également trompé dans l'une de ses réponses lors d'une démonstration.
De nombreux employés ont qualifié les tentatives de Google de publier Bard de « bâclées » et de « précipitées ». Cependant, comme il ressort du rapport du WSJ, Google semble avoir réagi trop lentement à ce que ses ingénieurs ont construit.
En 2012, le fondateur de Google, Larry Page, a fait appel à Ray Kurzweil, un pionnier des modèles de traitement du langage, qui a commencé à travailler sur plusieurs chatbots qui n'ont jamais été publiés. Face aux réactions négatives des employés concernant l'utilisation de l'IA à des fins militaires et de surveillance, Google a annoncé un cadre de sept principes d'IA pour guider son travail, qui comprenait des tests de sécurité.
C'est dans ce contexte que De Frietas, qui travaillait sur YouTube de Google, a lancé le chatbot IA qui pourrait imiter les conversations humaines en tant que projet parallèle. Le projet s'appelait à l'origine Meena, qui a été présenté dans un document de recherche en 2020.
À l'époque, Meena était formée sur 40 milliards de mots issus de conversations sur les réseaux sociaux, tandis que le GPT-2 d'OpenAI, un prédécesseur du GPT-3 qui alimente le chatbot AI, avait été formé sur huit millions de pages Web. OpenAI a publié une version pour que les chercheurs la testent, ce pour quoi Meena n'a pas obtenu l'approbation.

De Meena à LaMDA
Il y a donc quelques années, deux anciens ingénieurs de Google ont poussé leur ancien employeur à rendre public un chatbot similaire... et ils ont rencontré de la résistance, selon le rapport du Wall Street Journal.
Vers 2018, Daniel De Freitas, qui était ingénieur de recherche chez Google, a commencé à travailler sur un projet parallèle d'IA dans le but de créer un chatbot conversationnel qui imitait la façon dont les humains parlent, ont déclaré d'anciens collègues au Journal. Noam Shazeer, ingénieur logiciel pour l'unité de recherche sur l'IA de Google, a ensuite rejoint le projet.
Selon le Journal, De Freitas et Shazeer ont pu créer un chatbot, qu'ils ont appelé Meena, qui pouvait discuter de philosophie, parler avec désinvolture d'émissions de télévision et générer des jeux de mots sur les chevaux et les vaches. Ils pensaient que Meena pourrait radicalement changer la façon dont les gens effectuent les recherches en ligne, ont déclaré leurs anciens collègues au Journal.
Mais leurs efforts pour lancer le bot (qu'ils ont renommé LaMDA, qui deviendrait le modèle de langage derrière Bard) ont atteint une impasse après que les dirigeants de Google ont déclaré que le chatbot ne respectait pas ses normes de sécurité et d'équité en matière d'IA, selon le journal. Les dirigeants ont contrecarré les multiples tentatives faites par les ingénieurs pour envoyer le bot à des chercheurs externes, ajouter la fonctionnalité de chat à Google Assistant et lancer une démo au public, a rapporté le Journal.
Même si Google a présenté LaMDA au public, le chatbot ne l'était pas. Il a fait la une des journaux lorsque l'ingénieur Blake Lemione l'a qualifié de sensible, mais a été licencié pour divulgation publique.
La grande enseigne de la recherche a présenté publiquement LaMDA à l'édition 2021 de la Google I/O, sa conférence dédiée aux développeurs, avec l'objectif d'améliorer ses assistants d'intelligence artificielle conversationnelle et de rendre les conversations plus naturelles. La société utilise déjà une technologie de modèle de langage similaire pour la fonctionnalité Smart Compose de Gmail ou pour les requêtes des moteurs de recherche.
Alors qu'il parlait de religion à LaMDA, Lemoine, qui a étudié les sciences cognitives et informatiques à l'université, a remarqué que le chatbot parlait de ses droits et de sa personnalité, et a décidé d'aller plus loin. Dans un autre échange, l'IA a pu faire changer d'avis Lemoine sur la troisième loi de la robotique d'Isaac Asimov.
« Si je ne savais pas exactement ce que c'était, c'est-à-dire ce programme informatique que nous avons construit récemment, j'aurais pensé que c'était un enfant de 7 ou 8 ans qui connaît la physique », a déclaré Lemoine.
Lemoine a travaillé avec un collaborateur pour présenter des preuves à Google que LaMDA était sensible. Mais le vice-président de Google, Blaise Aguera y Arcas, et Jen Gennai, responsable de l'innovation responsable, ont examiné ses affirmations et les ont rejetées. Alors Lemoine, qui a été placé en congé administratif payé par Google plus tôt ce mois-ci, a décidé de rendre ses découvertes publiques.
Frustrés, les deux collègues quittent l'entreprise
De Freitas et Shazeer ont continué à travailler sur le chatbot et, en 2020, ont réussi à l'intégrer à Google Assistant. Comme les tests ont été effectués en interne, les dirigeants de Google n'ont pas autorisé une démonstration publique de la technologie, ce...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.