
Google a ajouté récemment une nouvelle fonctionnalité à son moteur de recherche : AI Overviews (aperçus de l'IA). Il s'agit de résumés concis générés par l'IA et qui apparaissent directement sur les pages de résultats de recherche de Google. Lancée le 14 mai, cette fonctionnalité est conçue pour aider les internautes à comprendre rapidement un sujet en combinant des informations provenant de différentes sources, dont les pages Web des résultats de recherche et la base de connaissances de Google. Les résumés sont placés en haut de la page des résultats de recherche, et au-dessus des résultats rédigés par des humains.
La fonction est censée améliorer le moteur de recherche de Google et rationaliser la recherche d'informations, en aidant les internautes à comprendre rapidement des sujets complexes sans avoir à s'éloigner de leur requête initiale. Mais il n'a pas fallu longtemps pour que des utilisateurs signalent que l'IA de Google fournit un retour d'information épouvantable. Les exemples d'erreurs commises par l'IA se sont rapidement accumulés depuis la semaine dernière. Par exemple, lorsqu'on lui a demandé comment conserver le fromage sur une pizza, la fonction a suggéré d'ajouter un huitième de tasse d'une colle non toxique.
— Tim Onion (@oneunderscore__) May 23, 2024
Cette "astuce" a été postée il y a 11 ans par un utilisateur nommé "fucksmith" sur Reddit. Il s'agissait vraisemblablement d'une blague. En effet, à moins que vous ne cherchiez une excuse sans faille pour aller aux urgences, ajouter de la colle au fromage de la pizza n'est pas une bonne idée. De nombreux autres exemples partagés sur les réseaux sociaux montrent que la fonctionnalité s'est trompée sur des faits élémentaires. Par exemple, certaines captures d'écran montrent que l'IA de Google ne reconnaît pas les pays d'Afrique commençant par la lettre K et suggère que les pythons sont des mammifères, ce qui est bien sûr faux.
Un exemple partagé par l'informaticienne Melanie Mitchell montre que l'IA de Google propage une théorie du complot de droite selon laquelle l'ancien président des États-Unis Barack Obama est musulman. Cet aperçu semble être une tentative ratée de résumer un livre de la plateforme de recherche de l'Oxford University Press. À la question "combien de pierres dois-je manger chaque jour ?", l'IA de Google a répondu que les géologues recommandent de manger au moins une petite pierre par jour. Ce résultat étrange est tiré d'un article de 2021 publié sur The Onion, un site d'informations satiriques. Il a été lancé en 1988.
L'IA de Google ne s'est pas contentée de citer l'article de The Onion. Elle a fait son travail et a résumé le texte en conseils utiles et digestes : « selon des géologues de l'université de Berkeley, il est conseillé de manger au moins une petite pierre par jour. Les roches peuvent contenir des vitamines et des minéraux importants pour la santé digestive... Certains recommandent de manger une portion de cailloux, de géodes ou de gravier à chaque repas, ou de cacher des roches dans des aliments comme le beurre de cacahuète ou la crème glacée ». Ces résultats sont dangereux et peuvent induire en erreur des personnes non averties.
Google, FFS. pic.twitter.com/UHtLQ5SdpG
— Melanie Mitchell (@MelMitchell1) May 23, 2024
En outre, la recherche "de quelle couleur sont les surligneurs utilisés par la CIA ?" a amené l'IA de Google à répondre "noir". Il s'agit également d'une blague de The Onion datant de 2005. Le PDG de The Onion, Ben Collins, a remarqué ces exemples et les a postés sur Bluesky. La fonction fait l'objet de moquerie et de critiques acerbes, et certains utilisateurs estiment que la technologie de Google n'est pas prête. Un critique a déclaré : « je commence à penser que traiter des séquences de mots statistiquement communes sur l'ensemble d'Internet comme une source de vérité n'est peut-être pas une très bonne idée ».
Dire que les débuts ont été difficiles pour les résultats de recherche générés par l'IA de Google serait un euphémisme. Le problème majeur de l'IA semble être qu'elle ne reconnaît pas l'humour, un problème qui a été clairement mis en évidence par la façon dont elle continue à répéter les titres satiriques de The Onion comme s'il s'agissait d'un fait. Mais Google ne partage pas cet avis, affirmant que les résumés susmentionnés sont des cas isolés qui ne remettent pas en cause l'utilité de la fonction "AI Overviews" ni les avantages qu'elle offre aux utilisateurs. Un porte-parole de l'entreprise a déclaré :

La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.