
réduisant le trafic des sites Web
L'ajout de la fonction « AI Overviews » à Google Search a profondément modifié la façon dont les internautes interagissent avec le moteur de recherche. Une nouvelle étude montre que la fonction a entraîné une baisse significative du taux de clics dans les résultats de recherche au cours de l'année écoulée. La présence des résumés générés par l'IA incite les internautes à mettre fin à leur session de navigation plus rapidement. L'analyse confirme les rapports selon lesquels l'IA ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des machines sans originalité.
Google a commencé à tester les aperçus de l'IA en tant qu'expérience de recherche générative en mai 2023, et à peine un an plus tard, ils faisaient officiellement partie de la page de résultats du moteur de recherche (SERP). De nombreux sites ont remarqué des changements dans leur trafic à la suite de cette initiative, mais Google a balayé les inquiétudes quant à l'impact que cela pourrait avoir sur les sites à partir desquels il collecte toutes ces données.
Google a déclaré à plusieurs reprises que ces réponses basées sur Gemini ne détournent pas le trafic des sites Web, mais les experts en référencement naturel (SEO) ne sont pas d'accord avec la position de Google sur la question, et la nouvelle étude du Pew Research Center leur donne raison. Le Pew Research Center, une organisation à but non lucratif, a analysé les données de 900 utilisateurs du KnowledgePanel d'Ipsos collectées en mars en mars 2025.
L'analyse a révélé que parmi le groupe test, les utilisateurs étaient beaucoup moins susceptibles de cliquer sur les résultats de recherche lorsque la page comprenait un aperçu généré par l'IA. En analysant les données, les chercheurs ont constaté que la présence d'un aperçu de l'IA sur une page de résultats de recherche réduisait de près de moitié la probabilité que les internautes cliquent sur les liens de recherche, par rapport aux pages sans un aperçu.
« Les utilisateurs qui ont rencontré un résumé généré par l'IA ont cliqué sur un lien vers un résultat de recherche traditionnel dans 8 % des visites. Ceux qui n'ont pas rencontré d'aperçu de l'IA ont cliqué sur un résultat de recherche près de deux fois plus souvent (15 % des visites) », a déclaré Athena Chapekis, analyste en science des données au Pew Research Center, dans un article publié en ligne. L'IA a un impact significatif sur le trafic vers les sites Web.
Et ce qui est peut-être plus inquiétant encore, les utilisateurs sont plus susceptibles de mettre fin à leur session de navigation après avoir consulté un aperçu généré par l'IA. Cela suggère que de nombreuses personnes lisent les contenus générés par un robot et que leur recherche s'arrête là. Malheureusement pour ces personnes, toutes les formes d'IA générative sont sujettes à des hallucinations qui les amènent parfois à fournir des informations erronées.
Ainsi, davantage de personnes pourraient quitter une recherche avec des informations erronées. (Google a soutenu que les utilisateurs cliquent sur les liens cités dans les aperçus de l'IA, mais Pew Research Center a constaté que seulement 1 % des aperçus de l'IA généraient un clic sur une source.)
Google conteste les résultats de l'étude du Pew Research Center
Le problème ne devrait pas s'améliorer avec le temps. Depuis le lancement des aperçus de l'IA, Google n'a cessé d'augmenter le nombre de recherches donnant lieu à des résumés générés par des robots. Environ 1 recherche sur 5 donne désormais lieu à un aperçu. En général, plus une recherche comporte de mots, plus elle est susceptible de déclencher un aperçu de l'IA, et cela est particulièrement vrai pour les recherches formulées sous forme de questions.
L'étude montre que 60 % des questions et 36 % des recherches formulées en phrases complètes obtiennent une réponse de l'IA. De son côté, Google rejette les conclusions de l'étude du Pew Research Center, remettant en cause la méthodologie utilisée par les chercheurs. Google a déclaré :

Bien que certaines catégories de plateformes, telles que les sites d'amateurs, s'en sortent bien, d'autres ont été durement touchées. La plupart des sites les plus touchés sont précisément ceux qui auraient pu répondre à des demandes de recherche courantes. Les sites scientifiques et éducatifs ont perdu 10 % de leurs visiteurs. Les sites de référence ont perdu 15 % de leurs visiteurs. Les sites consacrés à la santé ont perdu jusqu'à 31 % de leurs visiteurs.
Pour les entreprises qui vendent de la publicité ou des abonnements, la perte de visiteurs est synonyme de perte de revenus. « Nous avons longtemps entretenu des relations très positives avec Google... Ils ont rompu le contrat », déclare Neil Vogel, directeur de Dotdash Meredith, qui possède des titres tels que People et Food & Wine. Il y a trois ans, ses sites Web tiraient plus de 60 % de leur trafic de Google. Aujourd'hui, ce chiffre est de l'ordre de 30 %.
« La nature d'Internet a complètement changé. L'IA est en train d'étouffer le trafic de la plupart des sites de contenu », déclare Prashanth Chandrasekar, PDG de Stack Overflow. Avec de moins de visiteurs, Stack Overflow voit moins de questions posées sur ses forums de programmation. Wikipédia, également alimentée par des passionnés, a averti que les résumés générés par l'IA sans attribution « bloquent les voies d'accès... et de contribution » au site.
Le modèle économique traditionnel des sites Web s'effondre
Les inquiétudes concernant le fait que Google tire profit du contenu des éditeurs sans partager le précieux trafic Web ont conduit à réexaminer le modèle économique de la publicité basée sur les recherches, qui a largement alimenté l'économie du Web. Les internautes n'ont plus besoin de cliquer sur des liens pour obtenir une réponse et les revenus fondent. Selon certains observateurs, il fallait autrefois deux pages publiées pour générer un visiteur.
Désormais, il en faut des dizaines, voire des centaines, pour une seule visite quand l'IA est intermédiaire. On ne sait pas encore si un modèle commercial alternatif viable verra le jour, mais des expériences ont déjà commencé. Certains cherchent comment mettre fin à l'exploration anarchique du Web par les chatbots.
Début juillet 2025, Cloudflare a proposé la création d'une « infrastructure de péage » pour les robots d'indexation utilisés par l'IA afin d'aider les éditeurs. À l'avenir, tous les nouveaux clients de Cloudflare se verront demander s'ils souhaitent autoriser les robots des entreprises d'IA à explorer leurs sites Web, et dans quel but. Selon le PDG de Cloudflare, Matthew Prince, « l'IA est un fardeau économique », ajoutant qu'elle brise le modèle économique du Web.
« Nous devons fixer les règles du jeu », déclare Matthew Prince, qui dit préférer « un monde où les humains obtiendraient du contenu gratuitement et où les robots paieraient une tonne pour l'obtenir ». Récemment, Cloudflare a exigé de Google qu'il modifie la manière dont ses systèmes d'IA explorent le Web : « nous obtiendrons de Google un moyen de bloquer AI Overviews sans bloquer l'indexation de la recherche classique », a déclaré l'entreprise.
La société Tollbit propose également une solution : il s'agit d'un paywall permettant aux sites de contenu de faire payer aux robots d'indexation des tarifs variables. Par exemple, une publication pourrait faire payer davantage pour les nouveaux articles que pour les anciens. Au cours du premier trimestre de cette année, Tollbit a traité 15 millions de microtransactions de ce type, pour 2 000 producteurs de contenu, dont l'Associated Press et Newsweek.
DuckDuckGo dit stop à l'invasion des images générées par l'IA
Dans la documentation destinée aux développeurs, Google explique : « les aperçus de l'IA aident les utilisateurs à comprendre plus rapidement l'essentiel d'un sujet ou d'une question complexe, et constituent un point de départ pour explorer des liens afin d'en savoir plus. Ils ont été conçus pour s'afficher dans les requêtes où ils peuvent apporter des avantages supplémentaires par rapport à ce que les utilisateurs peuvent déjà obtenir sur Google Search ».
Selon Google, grâce aux aperçus de l'IA, les utilisateurs visitent une plus grande diversité de sites Web pour obtenir de l'aide sur des questions plus complexes. Notez que Google ne dit pas que « davantage de personnes » quittent Google pour visiter cet ensemble plus diversifié de sites. La diversité peut refléter le fait que les requêtes courantes vers les sites populaires obtiennent plus fréquemment une réponse sur Google.com. C'est ce que suggère l'étude Pew.
En mars 2025, Google a déclaré que plus d'un milliard de personnes avaient utilisé les aperçus de l'IA. Notez que Google Search omettra les aperçus IA si vous ajoutez « -ai » à la fin d'une requête de recherche ou si vous ajoutez « &udm=14 » comme paramètre URL à une chaîne de recherche. DuckDuckGo fournit une URL dédiée pour éviter l'IA. Le bouton de Bing permettant de désactiver l'IA dans les résultats de recherche serait défectueux.
Conclusion
Les internautes adoptent de plus en plus l'IA pour la recherche. « Il ne fait aucun doute que les gens préfèrent la recherche par IA. Et pour qu'Internet survive, pour que la démocratie survive, pour que les créateurs de contenu survivent, la recherche par IA doit partager les revenus avec les créateurs », a déclaré Bill Gross, PDG de ProRata, une entreprise pionnier dans les publicités en ligne payantes qui ont alimenté une grande partie du Web depuis lors.
L'étude du Pew Research Center confirme que les aperçus de l'IA introduits par Google modifient profondément les comportements des internautes en matière de recherche : en fournissant des réponses instantanées, les aperçus de l'IA réduisent drastiquement les clics et augmentent les recherches sans action complémentaire. Cela constitue un risque significatif pour les sites Web, notamment d’actualité, qui perdent du trafic et des revenus publicitaires.
Google défend ces fonctionnalités comme bénéfiques pour les utilisateurs, rejetant les résultats de l'étude. Mais outre la baisse du trafic et des revenus des sites Web, le contenu du Web devient moins fiable à cause des données synthétiques générées par l'IA. Selon les critiques, l'IA est en train de tuer le Web.
Source : Pew Research Center
Et vous ?




Voir aussi



Vous avez lu gratuitement 190 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.