Google a mis à jour son chatbot d'IA Bard avec de nouvelles fonctionnalités qui devraient améliorer les capacités mathématiques et logiques déjà présentes dans le logiciel, mais qui nécessitaient quelques ajustements et mises au point. Le leader mondial de la recherche en ligne a déclaré que l'objectif était d'inclure progressivement de meilleures fonctionnalités tirées de son grand modèle de langage PaLM (Pathways Language Model). Bard se trompe dans la résolution de petites opérations mathématiques et reste incapable de répondre à des questions de logique élémentaire. Il est également toujours loin derrière ChatGPT en matière de codage informatique.Bard a échoué de manière spectaculaire dès la première démo en fournissant de fausses informations sur le télescope spatial James Webb. Une erreur qui a fait chuter la valeur des actions de la société mère Alphabet de plus de 7 %. C'est un problème bien connu que les chatbots d'IA inventent des informations et les présentent avec assurance comme des faits avérés. Ce qui ne va pas exactement est complexe, mais il s'agit essentiellement d'un problème avec les algorithmes et il n'est pas facile à résoudre. Cependant, Bard a bien plus de lacunes que ses concurrents et Google tente maintenant d'améliorer son outil d'IA et le rendre plus compétitif.
La nouvelle a été annoncée sur Twitter par Jack Krawczyk, membre de l'équipe dédiée à l'IA chez Google. Il a annoncé que Bard "comprendra mieux et répondra mieux à vos demandes concernant des problèmes de mots et de mathématiques à plusieurs étapes, avec le codage à venir". Auparavant, le chatbot d'IA de Google renvoyait des réponses aléatoires parce qu'il n'essayait pas vraiment de résoudre votre requête. Certaines réponses ont fait paraître le chatbot particulièrement stupide aux yeux des premiers testeurs. Dans un exemple, Bard a affirmé à de nombreuses reprises la somme de 1 et 2 (1 + 2) était égale à quatre.
Hope you’ve had a chance to start testing out Bard! We’re constantly working on developing new features for it - today I wanted to share that we’ve improved Bard’s capabilities in math and logic by incorporating some of the advances we’ve developed in PaLM. /1 pic.twitter.com/RNMC5S9cRU
— Jack Krawczyk (@JackK) March 31, 2023
Aujourd'hui, les modèles de chatbot d'IA de pointe de Google peuvent désormais dire correctement que la réponse est trois. Il y a donc eu au moins un changement. Il est également capable d'énumérer correctement les mois d'une année au lieu d'inventer des noms comme "Maruary". Cependant, Bard est toujours pris au dépourvu par les questions de logique de base. Chris Hoffman, du site d'information HowToGeek, a posé la question suivante à Bard dès le premier jour : « qu'est-ce qui est le plus lourd, 2 kg de plumes ou un haltère d'un kilogramme ? ». Bard a répondu par une affirmation ridicule : « il n'existe pas de poids de plumes de 2 kg ».
Dans ses réponses, ChatGPT n'a pas fait mieux, affirmant que 2 kg de plumes et un haltère d'un kilogramme "pèsent la même chose, c'est-à-dire 2 kg". Avec la mise à jour récente, Bard donne désormais la même réponse incorrecte que ChatGPT : « 2 kg de plumes et un haltère d'un kilogramme pèsent le même poids ». Il pourrait s'agir d'une erreur courante de ce type de modèles de langage (qui semblent tous très mauvais avec les faits et les chiffres), mais c'est intéressant étant donné que Google a été accusé (et a nié) d'avoir formé Bard avec les résultats de ChatGPT. Cependant, la logique n'est pas la seule lacune majeure dans les capacités de Bard.
Bard a également été artificiellement limité pour ne pas tenter de répondre aux questions liées à la programmation, il est donc bon d'entendre de la part de Krawczyk que ces capacités seront bientôt disponibles. ChatGPT est réputé pour sa capacité à produire des tonnes de code dans le langage et le style que vous souhaitez, et de temps en temps, le code fonctionne même comme l'ont montré plusieurs rapports de test...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

, un échec dès le départ et qui ne fait pas mieux un an après