Google, filiale d'Alphabet Inc., organise un chat sur Discord sur invitation uniquement pour les utilisateurs intensifs de Bard, le chatbot d'intelligence artificielle (IA) de Google qui est alimenté par un grand modèle de langage (LLM) appelé LaMDA. Le groupe Discord compte près de 9 000 membres, dont des chefs de produit, des concepteurs et des ingénieurs de Google, qui utilisent le forum privé pour discuter ouvertement de l'efficacité et de l'utilité de Bard. Selon un article de Bloomberg, certains participants se demandent si les énormes ressources consacrées au développement du chatbot d'intelligence artificielle en valent la peine.
En août 2023, Cathy Pearl, responsable de l'expérience utilisateur pour Bard, a déclaré : "Le plus grand défi auquel je pense encore : à quoi servent vraiment les LLM, en termes d'utilité ? Comme faire vraiment la différence. TBD !"
À mesure que Google a intégré Bard dans ses principaux produits, tels que Gmail, Maps, Docs et YouTube, l'entreprise a reçu des plaintes concernant le chatbot d'IA générant des faits inventés et donnant des conseils potentiellement dangereux à ses utilisateurs. Le jour même où Google a introduit des extensions d'applications pour Bard, l'entreprise a également annoncé un bouton Google Search sur l'interface de Bard afin d'aider les utilisateurs à vérifier l'exactitude factuelle des réponses de l'IA générative par rapport aux résultats de son moteur de recherche.
"Ma règle de base est de ne pas faire confiance aux résultats de LLM à moins que je puisse les vérifier de manière indépendante", a écrit Dominik Rabiej, un chef de produit senior pour Bard, dans le chat Discord en juillet 2023. "J'aimerais que cela devienne possible, mais ce n'est pas encore le cas."
Bloomberg a examiné des dizaines de messages dans le groupe Discord entre juillet et octobre 2023, qui donnent un aperçu de la façon dont Bard est critiqué par les utilisateurs qui le connaissent le mieux. Certains de ces messages indiquent que les dirigeants de l'entreprise chargés de développer le chatbot d'intelligence artificielle ne sont pas convaincus du potentiel de Bard.
Rabiej a développé sa réponse sur le fait de "ne pas faire confiance" aux réponses générées par les grands modèles de langage en suggérant de limiter l'utilisation de Bard à des "applications créatives/de brainstorming". L'utilisation de Bard pour des applications de programmation est également une bonne option, a déclaré Rabiej, "puisque vous vérifiez inévitablement si le code fonctionne !"
Le débat sur les limites de Bard sur le canal Discord de Google n'est pas surprenant pour la plupart des membres du groupe, car il fait partie de la routine du développement de produits. "Depuis le lancement de Bard en tant qu'expérience, nous sommes impatients d'entendre les commentaires des utilisateurs sur ce qu'ils aiment et sur la manière dont nous pouvons améliorer l'expérience", a déclaré Jennifer Rodstrom, porte-parole de Google. "Notre canal de discussion avec les utilisateurs de Discord est l'un des nombreux moyens dont nous disposons pour y parvenir."
L'annonce par Google de la sortie de Bard en mars 2023 contenait également des détails sur les limites du chatbot IA pendant son développement. On peut y lire ce qui suit : "Bien que les LLM soient une technologie passionnante, ils ne sont pas exempts de défauts. Par exemple, parce qu'ils apprennent à partir d'un large éventail d'informations qui reflètent les préjugés et les stéréotypes du monde réel, ceux-ci apparaissent parfois dans leurs résultats. Ils peuvent également fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance".
Google Bard inclut également une clause de non-responsabilité sur l'outil pour ses utilisateurs : "Bard peut afficher des informations inexactes ou choquantes qui ne représentent pas le point de vue de Google."
Google Bard est encore une expérience précoce pour l'entreprise et l'outil d'IA générative est encore en phase d'apprentissage et de développement. Les utilisateurs doivent vérifier l'exactitude des sources utilisées par Bard. Si le résultat semble être une hallucination (inventé ou incorrect), les utilisateurs doivent faire part de leurs commentaires, car Google continue d'améliorer la qualité et la sécurité du produit.
En bref
Les membres d'un groupe privé de test de Google Bard sur Discord s'interrogent sur l'efficacité et l'utilité du chatbot IA dans son état actuel de développement, et certains se sentent en conflit avec le potentiel de Bard. Bard en est encore au stade expérimental et peut donc produire des résultats erronés ou imprécis. Par conséquent, les utilisateurs du produit ne devraient pas faire confiance aux résultats à moins qu'ils ne puissent être vérifiés de manière indépendante.
Source : Bloomberg
Et vous ?
Quel est votre avis sur Google Bard ?
Voir aussi :
Google dévoile Bard, sa réponse à l'intelligence artificielle ChatGPT de l'entreprise OpenAI, annoncée comme une menace pour l'existence de son moteur de recherches
Bard serait meilleur en matière de logique et de raisonnement grâce à une nouvelle technique appelée "implicit code execution", d'après Google
Les employés de Google qualifient le chatbot IA Bard de « pire qu'inutile » et « menteur pathologique ». Ils ont évoqué les conseils dangereux que l'IA donne fréquemment aux utilisateurs