Dans un effort pour ne pas se faire distancer par ses rivaux Microsoft et OpenAI, Google s'est précipité dans le développement et la présentation de son propre chatbot, Bard. Un nouveau rapport montre que les employés ont supplié l'entreprise de ne pas lancer le produit, qualifiant le système de « menteur pathologique » et de « pire qu'inutile ». Au cours de ces discussions internes, un employé a noté que Bard donnait fréquemment des conseils dangereux aux utilisateurs, que ce soit sur des sujets comme la façon de faire atterrir un avion ou la plongée sous-marine.
Le dilemme de Google sur l'IA
Pendant des années, Google a dominé à la fois la recherche en ligne et l'intelligence artificielle. Soudain, l'entreprise s'est vue menacée dans les deux cas, tout comme ses valeurs fondamentales. La façon dont elle réagit pourrait déterminer si elle reste au sommet de l'industrie technologique ou si elle va s'égarer, ce qui contribuera de toutes façons à modifier l'avenir d'Internet.
Tout d'abord, le chatbot ChatGPT d'OpenAI a captivé l'imagination avec sa capacité à répondre directement à toutes sortes de questions, bien que de manière peu fiable. Presque dès son lancement en novembre dernier, l'outil a soulevé des questions quant à savoir si l'IA conversationnelle pourrait un jour remplacer les moteurs de recherche traditionnels tels que Google.
Ensuite, Microsoft a incorporé une technologie OpenAI similaire dans son moteur de recherche Bing, faisant revivre un produit sur lequel beaucoup n'auraient pas pariés. Malgré quelques lacunes flagrantes, la popularité du chatbot Bing a contribué à faire dépasser la barre des 100 millions d'utilisateurs actifs au moteur de recherche, et la société intègre fiévreusement des outils d'IA similaires dans tout, de Microsoft Office à Skype en passant par Windows 11.
Les retombées n'ont pas tardé à se manifester : Samsung est actuellement en phase de négociation avec Microsoft pour faire de Bing le moteur de recherche par défaut sur ses appareils Galaxy à la place de Google Search. Cela inclut les smartphones et les tablettes basés sur Android.
La réaction de Google à la menace de Samsung a été la « panique », selon des messages internes examinés par le Times. Un chiffre d'affaires annuel estimé à 3 milliards de dollars était en jeu avec le contrat Samsung. Un montant supplémentaire de 20 milliards de dollars est lié à un contrat Apple similaire qui sera [peut-être] renouvelé cette année.
Des concurrents s'appuyant sur l'IA comme le nouveau Bing deviennent rapidement la menace la plus sérieuse pour l'activité de recherche de Google depuis 25 ans. En réponse, Google s'est précipité pour développer un tout nouveau moteur de recherche alimenté par la technologie. Il met également à niveau l'existant avec des caractéristiques IA, selon des documents internes examinés par le Times.
Les employés de Google critiquent Bard, évoquant un lancement trop rapide
Google a peut-être été lent à réagir à ce que plusieurs considèrent comme une explosion de l'intelligence artificielle générative formée sur de grands modèles de langage, ou LLM. ChatGPT ayant pris d'assaut le monde, intégré par la suite aux outils Microsoft comme Bing, sa suite bureautique Microsoft 365 et même son système d'exploitation, certains se sont demandé si Google finirait par se faire distancer.
La panique a contraint Google a publié trop vite Bard. C'est en tout cas l'avis d'un groupe d'employés de Google LLC qui travaillent sur Bard et qui ont déclaré que l'entreprise s'était empressée de publier le chatbot malgré des problèmes éthiques évidents d'après un rapport de Bloomberg, qui a cité des discussions avec 18 employés actuels et anciens de Google et s'est également appuyé sur des captures d'écran de messages internes.
Bien que Google ait pu sembler avoir été lent à réagir, un certain nombre de ses employés qui ont travaillé sur Bard ont déclaré que le chatbot avait été publié trop rapidement. L'un d'eux a qualifié Bard de « menteur pathologique ». Pour être juste envers Google, quiconque a utilisé ChatGPT ou le chatbot Bing à des fins de recherche sait que les outils semblent souvent très autoritaires lorsqu'ils produisent des informations erronées sans équivoque.
Un autre a dit: « Bard est pire qu'inutile: s'il vous plaît, ne le lancez pas ».
Bloomberg affirme que la société a même « infirmé une évaluation des risques » soumise par une équipe de sécurité interne qui indiquait aux grands pontes que le système n'était pas prêt pour une utilisation générale. Google a quand même ouvert un accès anticipé au bot « expérimental » en mars. Et si l'on en croit les salariés, c'est une expérience risquée. Non seulement Bard leur a fourni des réponses mensongères, faisant parfois « grincer des dents », mais dans un cas, il a expliqué comment faire atterrir un avion correctement, ce qui, selon les employés, aurait entraîné un accident. Ils ont également dit que Bard donnait des informations sur la sécurité de la plongée sous-marine qui auraient tué des gens s'ils avaient suivi les conseils.
Le rapport de Bloomberg illustre comment Google a apparemment mis de côté les préoccupations éthiques dans le but de suivre des rivaux comme Microsoft et OpenAI. L'entreprise vante fréquemment son travail de sécurité et d'éthique dans l'IA, mais a longtemps été critiquée pour avoir donné la priorité aux affaires.
Fin 2020 et début 2021, la société a licencié deux chercheurs (Timnit Gebru et Margaret Mitchell) après qu'ils ont rédigé un document de recherche exposant les failles des mêmes systèmes de langage d'IA qui sous-tendent les chatbots comme Bard. Et l'été dernier, l'entreprise a licencié un chercheur de son équipe d'IA responsable qui était devenu convaincu que l'un de ses modèles de langage, LaMDA, était sensible.
Maintenant, cependant, avec ces systèmes menaçant le modèle commercial de recherche de Google, l'entreprise semble encore plus axée sur les affaires que sur la sécurité. Comme le dit Bloomberg, en paraphrasant les témoignages d'employés actuels et anciens, « le géant de confiance de la recherche sur Internet fournit des informations de mauvaise qualité dans une course pour suivre la concurrence tout en accordant moins de priorité à ses engagements éthiques »,
D'autres chez Google (et plus généralement dans le monde de l'IA) ne seraient pas d'accord. Un argument courant est que les tests publics sont nécessaires pour développer et protéger ces systèmes et que les dommages connus causés par les chatbots sont minimes. Oui, ils produisent des textes toxiques et offrent des informations trompeuses, mais il en va de même pour d'innombrables autres sources sur le Web. (Ce à quoi d'autres répondent, oui, mais diriger un utilisateur vers une mauvaise source d'informations est différent de lui donner ces informations directement avec toute l'autorité d'un système d'IA.) Les rivaux de Google comme Microsoft et OpenAI sont sans doute aussi compromis que Google . La seule différence est qu'ils ne sont pas des leaders dans le secteur de la recherche et qu'ils ont moins à perdre.
« Nous continuons à investir dans les équipes qui travaillent à l'application de nos principes d'IA à notre technologie », a déclaré le porte-parole de Google, Brian Gabriel, au Washington Post. Il a déclaré que la publication d'une IA responsable était la « priorité absolue » de Google.
Conclusion
Avant ChatGPT, Google était considéré comme le leader du secteur dans le développement de « grands modèles de langage », les systèmes d'IA complexes qui sous-tendent les chatbots. Il a utilisé ces modèles dans les coulisses pour améliorer ses résultats de recherche et pour des outils linguistiques tels que Google Translate.
Mais la société avait été réticente à publier ses outils de langage les plus puissants sous forme de chatbot, préférant publier ses avancées de pointe dans des revues universitaires tout en les gardant secrètes pour une étude interne. La société a discrètement abandonné sa devise non officielle « Don't be evil » (« ne soyez pas méchant ») de son code de conduite il y a des années, mais se félicite toujours d'une approche « responsable » de l'IA, que ce soit dans la recherche ou les voitures autonomes.
Il y avait de bonnes raisons à sa relative prudence et la situation actuelle l'illustre parfaitement.
Quoiqu'il en soit, les gens pourraient simplement vouloir être prudents et ne pas croire toutes les réponses produites par l'IA générative.
Quant à savoir qui, de Bard et ChatGPT, est plus utile et précis, vous pouvez effectuer vos tests et partager votre expérience.
Source : rapport
Et vous ?
Qu'en pensez-vous ? Google en PLS face à l'association Microsoft + OpenAI notamment sur le domaine de la recherche ?
Comprenez-vous le dilemme de Google en matière d'IA (avancer rapidement ou « ne soyez pas méchant ») ? Quel serait, selon vous, le meilleur choix ? Pourquoi ?
Google risque-t-il de prendre du retard sur la course à l'IA générative s'il ne tente pas de telles expériences avec le public ? Cela est-il donc justifié selon vous ? Pourquoi ?
Les employés de Google qualifient le chatbot IA Bard de « pire qu'inutile » et « menteur pathologique ».
Ils ont évoqué les conseils dangereux que l'IA donne fréquemment aux utilisateurs
Les employés de Google qualifient le chatbot IA Bard de « pire qu'inutile » et « menteur pathologique ».
Ils ont évoqué les conseils dangereux que l'IA donne fréquemment aux utilisateurs
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !