Google a ajouté récemment une nouvelle fonctionnalité à son moteur de recherche : AI Overviews (aperçus de l'IA). Il s'agit de résumés concis générés par l'IA et qui apparaissent directement sur les pages de résultats de recherche de Google. Lancée le 14 mai, cette fonctionnalité est conçue pour aider les internautes à comprendre rapidement un sujet en combinant des informations provenant de différentes sources, dont les pages Web des résultats de recherche et la base de connaissances de Google. Les résumés sont placés en haut de la page des résultats de recherche, et au-dessus des résultats rédigés par des humains.
La fonction est censée améliorer le moteur de recherche de Google et rationaliser la recherche d'informations, en aidant les internautes à comprendre rapidement des sujets complexes sans avoir à s'éloigner de leur requête initiale. Mais il n'a pas fallu longtemps pour que des utilisateurs signalent que l'IA de Google fournit un retour d'information épouvantable. Les exemples d'erreurs commises par l'IA se sont rapidement accumulés depuis la semaine dernière. Par exemple, lorsqu'on lui a demandé comment conserver le fromage sur une pizza, la fonction a suggéré d'ajouter un huitième de tasse d'une colle non toxique.
[tweet]<blockquote class="twitter-tweet"><p lang="zxx" dir="ltr"><a href="https://t.co/KBniV3Nl0O">pic.twitter.com/KBniV3Nl0O</a></p>— Tim Onion (@oneunderscore__) <a href="https://twitter.com/oneunderscore__/status/1793783956929757282?ref_src=twsrc%5Etfw">May 23, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]
Cette "astuce" a été postée il y a 11 ans par un utilisateur nommé "fucksmith" sur Reddit. Il s'agissait vraisemblablement d'une blague. En effet, à moins que vous ne cherchiez une excuse sans faille pour aller aux urgences, ajouter de la colle au fromage de la pizza n'est pas une bonne idée. De nombreux autres exemples partagés sur les réseaux sociaux montrent que la fonctionnalité s'est trompée sur des faits élémentaires. Par exemple, certaines captures d'écran montrent que l'IA de Google ne reconnaît pas les pays d'Afrique commençant par la lettre K et suggère que les pythons sont des mammifères, ce qui est bien sûr faux.
Un exemple partagé par l'informaticienne Melanie Mitchell montre que l'IA de Google propage une théorie du complot de droite selon laquelle l'ancien président des États-Unis Barack Obama est musulman. Cet aperçu semble être une tentative ratée de résumer un livre de la plateforme de recherche de l'Oxford University Press. À la question "combien de pierres dois-je manger chaque jour ?", l'IA de Google a répondu que les géologues recommandent de manger au moins une petite pierre par jour. Ce résultat étrange est tiré d'un article de 2021 publié sur The Onion, un site d'informations satiriques. Il a été lancé en 1988.
L'IA de Google ne s'est pas contentée de citer l'article de The Onion. Elle a fait son travail et a résumé le texte en conseils utiles et digestes : « selon des géologues de l'université de Berkeley, il est conseillé de manger au moins une petite pierre par jour. Les roches peuvent contenir des vitamines et des minéraux importants pour la santé digestive... Certains recommandent de manger une portion de cailloux, de géodes ou de gravier à chaque repas, ou de cacher des roches dans des aliments comme le beurre de cacahuète ou la crème glacée ». Ces résultats sont dangereux et peuvent induire en erreur des personnes non averties.
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Google, FFS. <a href="https://t.co/UHtLQ5SdpG">pic.twitter.com/UHtLQ5SdpG</a></p>— Melanie Mitchell (@MelMitchell1) <a href="https://twitter.com/MelMitchell1/status/1793749621690474696?ref_src=twsrc%5Etfw">May 23, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]
En outre, la recherche "de quelle couleur sont les surligneurs utilisés par la CIA ?" a amené l'IA de Google à répondre "noir". Il s'agit également d'une blague de The Onion datant de 2005. Le PDG de The Onion, Ben Collins, a remarqué ces exemples et les a postés sur Bluesky. La fonction fait l'objet de moquerie et de critiques acerbes, et certains utilisateurs estiment que la technologie de Google n'est pas prête. Un critique a déclaré : « je commence à penser que traiter des séquences de mots statistiquement communes sur l'ensemble d'Internet comme une source de vérité n'est peut-être pas une très bonne idée ».
Dire que les débuts ont été difficiles pour les résultats de recherche générés par l'IA de Google serait un euphémisme. Le problème majeur de l'IA semble être qu'elle ne reconnaît pas l'humour, un problème qui a été clairement mis en évidence par la façon dont elle continue à répéter les titres satiriques de The Onion comme s'il s'agissait d'un fait. Mais Google ne partage pas cet avis, affirmant que les résumés susmentionnés sont des cas isolés qui ne remettent pas en cause l'utilité de la fonction "AI Overviews" ni les avantages qu'elle offre aux utilisateurs. Un porte-parole de l'entreprise a déclaré :
Envoyé par Google
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">I couldn’t believe it before I tried it. Google needs to fix this asap.. <a href="https://t.co/r3FyOfxiTK">pic.twitter.com/r3FyOfxiTK</a></p>— Kris Kashtanova (@icreatelife) <a href="https://twitter.com/icreatelife/status/1793781850923823144?ref_src=twsrc%5Etfw">May 23, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]
Selon certains analystes, il s'agit essentiellement d'une nouvelle variante des hallucinations de l'IA. (Cela se produit lorsqu'un modèle d'IA fournit des informations fausses ou trompeuses et les présente comme des faits. Les hallucinations résultent de données d'entraînement erronées, d'erreurs algorithmiques ou d'interprétations erronées du contexte.) Cette polémique n'est pas une bonne nouvelle pour Google, qui tente de s'imposer dans la course à l'IA. Le moteur de recherche a fait ses débuts en 1998 et contrôle environ 86 % du marché. Bing contrôle 8,2 %, Yahoo 2,6 %, DuckDuckGo 2,1 %, Yandex 0,2 % et AOL 0,1 %.
Mais l'avènement de l'IA générative et son adoption rapide par les consommateurs menacent la mainmise de Google sur le marché, qui représente environ 8,5 milliards de recherches par jour et 240 milliards de dollars de recettes publicitaires annuelles. La dernière chose dont Google a besoin est de perdre la confiance des millions d'utilisateurs qui effectuent des recherches en ligne par le biais de son moteur de recherche. En fin de compte, le tollé suscité par la nouvelle fonction de Google Search (pilotée par le modèle d'IA Gemini) révèle un problème d'ancrage et de vérification des faits dans les résumés générés par l'IA.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des résumés polémiques générés par l'IA de Google ?
Quels pourraient être les impacts des résumés erronés sur le moteur de recherche ?
Ces résultats pourraient-ils pousser les utilisateurs à choisir d'autres moteurs de recherche ?
Cette fonctionnalité est-elle une bonne idée ? Pensez-vous qu'elle répond aux besoins des utilisateurs ?
Voir aussi
Désactiver l'IA dans Google Search : avec le paramètre "udm=14", vous pouvez mettre un terme aux résumés de l'IA et retrouver une expérience de recherche traditionnelle
Google Search ajoute un filtre « web uniquement » pour ceux qui préfèrent aller à l'essentiel : des liens textuels. Désormais, l'option par défaut de son moteur s'appuie sur l'IA générative
Google Search affichera désormais par défaut des réponses générées par l'IA à des millions de personnes. Des éditeurs dépendant de Google pour leur trafic craignent une diminution des visites de leurs sites