La recherche par IA de Google génère chaque jour des millions de réponses erronées, un problème qui s'ajoute aux hallucinations, à l'énorme consommation d'énergie et aux effets négatifs sur la santé mentaleUne étude récente rapportée par le New York Times a révélé que la fonction « AI Overview » de Google propose des résumés corrects et provenant de sources fiables dans 9 cas sur 10. Mais si 90 % semble être une note suffisante, le taux d'échec s'accumule en quelques minutes. Cela représente des centaines de milliers d'erreurs chaque minute. De plus, il est difficile d’évaluer véritablement la précision de l’AI Overview. Une partie du problème concerne les sites spécifiques considérés comme sources. Les auteurs de l’étude, issus de la société d’IA open source Oumi, ont constaté que Facebook et Reddit étaient respectivement la deuxième et la quatrième référence la plus citée par AI Overview.
L'hallucination est largement reconnue comme un inconvénient important pour les grands modèles de langage (LLM). De nombreux travaux ont tenté de réduire l'ampleur de l'hallucination, mais selon une étude de 2024, l'hallucination est inévitable. Ce serait une limitation innée des grands modèles de langage (LLM) en intelligence artificielle (IA). Outre les hallucinations, l'énorme consommation d'énergie et les effets potentiellement négatifs sur la santé mentale, l'IA générative souffre encore d'un problème de précision. Cela n'a toutefois pas empêché les grandes entreprises technologiques comme Google de déployer des fonctionnalités telles que les résumés de recherche par IA auprès de leurs utilisateurs. La plupart des résultats semblent corrects à première vue et comportent généralement plusieurs références, mais cela ne signifie pas pour autant que le produit fonctionne parfaitement.
Une étude récente rapportée par le New York Times a révélé que la fonction « AI Overview » de Google propose des résumés corrects et provenant de sources fiables dans 9 cas sur 10. Mais si 90 % semble être une note suffisante, le taux d'échec s'accumule en quelques minutes. Étant donné que l'entreprise traitera plus de cinq mille milliards de recherches en 2026, le calcul qui en découle signifie que l'« AI Overview » produit des dizaines de millions de réponses douteuses chaque heure. Cela représente des centaines de milliers d'erreurs chaque minute.
De plus, il est difficile d’évaluer véritablement la précision de l’AI Overview. Une réponse initialement erronée à une requête de recherche peut se transformer en un résumé correct lorsqu’un utilisateur répète la recherche une deuxième fois, ce qui rend la situation pratiquement impossible à anticiper. La décision de Google de placer l’onglet AI Overview en haut de la plupart des pages de résultats de recherche signifie également que davantage de personnes le voient et peuvent supposer qu’il est fiable.
Une partie du problème concerne les sites spécifiques considérés comme sources. Les auteurs de l’étude, issus de la société d’IA open source Oumi, ont constaté que Facebook et Reddit étaient respectivement la deuxième et la quatrième référence la plus citée par AI Overview. Les réponses exactes citaient Facebook dans 5 % des cas, tandis que les réponses inexactes citaient le réseau social dans 7 % des cas. Dans d’autres cas, AI Overview semble citer une source fiable à tort lorsqu’il donne une réponse erronée.
En septembre de 2025, OpenAI avait déjà admis une vérité dérangeante : les « hallucinations » des modèles de langage ne sont pas une anomalie, mais une conséquence incontournable de leur conception. C’est un effet direct de la manière dont ces systèmes sont entraînés : prédire la suite la plus probable d’un texte en fonction des milliards d’exemples ingérés. L’objectif n’est pas d’atteindre la vérité factuelle, mais de maximiser la vraisemblance statistique. Autrement dit, la fluidité du discours est un produit d’optimisation, pas la véracité.
Pour le cas d'AI Overview, vient ensuite le problème des acteurs malveillants. Quiconque comprend ces failles du système peut potentiellement manipuler AI Overview pour qu’il fournisse des déclarations inexactes. Hypothétiquement, une personne pourrait rédiger une série d’articles de blog affirmant des informations historiques carrément fausses, puis augmenter artificiellement le trafic vers son site web. AI Overview de Google pourrait inclure ce site dans son analyse des sources, ne pas signaler ses inexactitudes, puis générer une réponse erronée.
« Nos fonctionnalités de recherche basées sur l’IA s’appuient sur les mêmes mécanismes de classement et de sécurité qui empêchent la grande majorité du spam d’apparaître dans nos résultats », a déclaré Ned Adriance, porte-parole de Google, au New York Times. « La plupart de ces exemples sont des recherches irréalistes que les gens ne feraient pas dans la réalité. »
Même Microsoft a récemment mis à jour les conditions d'utilisation de ses outils d'IA Copilot. La société indique que Copilot est destiné « uniquement à des fins de divertissement » et que son utilisation se fait à vos propres risques. Il semble que les nouvelles conditions d’utilisation visent à transférer la responsabilité des éventuelles inexactitudes commises par Copilot. Microsoft ne vous demande pas exactement de cesser complètement d'utiliser Copilot pour votre travail. Elle souhaite plutôt que vous utilisiez Copilot comme un outil, et non comme un décideur. L'entreprise souhaite que les utilisateurs vérifient les informations fournies par Copilot avant de s'y fier pour tout travail important.
Cette nouvelle étude rappelle qu'il est important de considérer des outils comme AI Overview avec une bonne dose de scepticisme pour l’avenir prévisible. Une réponse erronée sur dix peut sembler anodin, mais pensez au nombre de requêtes de recherche que vous avez déjà effectuées aujourd’hui. Des études indiquent également que le recours excessif à ce type de technologie pourrait nuire aux capacités cognitives globales. Mais s’il y a une chose à laquelle vous pouvez vous fier, c’est bien la clause de non-responsabilité en petits caractères d’AI Overview : « L’IA peut commettre des erreurs, alors vérifiez bien les réponses. »
Cette étude intervient dans un contexte où les chatbots d’IA changent profondément la manière dont les internautes accèdent à l’information. Autrefois, les moteurs de recherche redirigeaient les utilisateurs vers les sites qui produisent le contenu. Aujourd’hui, les chatbots répondent directement, en s’appuyant sur les contenus existants, sans forcément rediriger vers les créateurs. Résultat : les éditeurs enregistrent une baisse alarmante de leur trafic, donc des revenus. Les éditeurs luttent pour se faire payer par les entreprises d'IA pour l'accès à leurs contenus. En plus de ces défis, le contenu du Web devient moins fiable à cause des données synthétiques générées par l'IA.
Sources : New York Times, Oumi
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?Voir aussi :
« Dangereux et alarmant » : Google supprime certains de ses résumés générés par IA après avoir mis en danger la santé des utilisateurs. Une étude alerte sur le manque de fiabilité de la fonction AI Overviews
Du PageRank au PromptRank : les moteurs de recherche basés sur l'IA s'appuient sur des sources « moins populaires » au risque d'amplifier les erreurs et les biais selon des chercheurs
L'intégration des résumés de l'IA dans les résultats de recherches Google met les éditeurs de sites devant un dilemme : partager leurs données ou mourir
Vous avez lu gratuitement 2 685 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.