
Les internautes adoptent de plus en plus l'IA pour la recherche en ligne. Bien que les hallucinations des modèles d'IA restent un problème majeur, davantage d'internautes préfèrent passer par les chatbots pour obtenir une réponse immédiate et simplifiée à leurs questions. En raison de ce phénomène, les clics sur les liens contenus dans la page de résultats d'un moteur de recherche (SERP) diminuent, ce qui se traduit par la baisse du trafic des sites.
La Fondation Wikimédia tire la sonnette d'alarme : Wikipédia constate une baisse significative du trafic humain vers l'encyclopédie en ligne. Dans un billet de blogue récent, Marshall Miller, directeur principal des produits de la Fondation Wikimédia, a abordé cette question. « Avec moins de visites sur Wikipédia, moins de bénévoles pourraient développer et enrichir le contenu, et moins de donateurs individuels pourraient soutenir ce travail », a-t-il déclaré.

Cela représente une diminution d'environ 8 % par rapport aux mêmes mois en 2024. « Nous pensons que cette baisse reflète l'impact de l'IA générative et des réseaux sociaux sur la manière dont les gens recherchent des informations, en particulier avec les moteurs de recherche qui fournissent des réponses directes aux utilisateurs, souvent basées sur le contenu de Wikipédia », a déclaré Marshall Miller. Les choses pourraient rapidement s'aggraver.
L'IA menace la survie des sources de ses données d'entraînement
C'est la survie même des créateurs de contenus et du Web ouvert qui est en jeu. Paradoxalement, l'IA générative est entraînée à partir des articles, images, vidéos... produits par des humains collectés sur des milliards de sites Web. Ces données sont très précieuses pour les développeurs de grands modèles de langes (LLM). Ainsi, si les créateurs de contenus abandonnent en raison de baisse du trafic, cela signera également la mort de l'IA générative.
Les articles de Wikipédia font partie des données d'entraînement les plus courantes des modèles d'IA, et Google et d'autres plateformes exploitent depuis des années les articles de Wikipédia pour alimenter leurs extraits et leurs panneaux de connaissances, qui détournent le trafic de Wikipédia elle-même.

En avril 2025, Wikimédia avait déjà signalé qu'elle était victime de scraping de la part des bots IA, un problème qui touche également les bibliothèques, les archives et les musées. Les éditeurs de Wikipédia sont également très conscients du risque que représente l'IA générative pour la fiabilité des articles de Wikipédia si son utilisation n'est pas modérée efficacement. En août, ils ont rejeté l'intégration des chatbots d'IA en tant qu'outils d'édition.
Wikipédia met en place des protections contre le scraping de l'IA
Marshall Miller a déclaré à 404 Media que Wikipédia a mis en place des politiques concernant les robots tiers qui explorent son contenu, telles que la spécification d'informations d'identification et le respect de son fichier robots.txt, avec des limites sur le taux de requêtes et les requêtes simultanées. « Pour des raisons évidentes, nous ne pouvons pas divulguer publiquement les détails de la manière dont nous bloquons et détectons les robots », a-t-il déclaré.
Selon Marshall Miller, ces baisses ne sont pas inattendues. Les moteurs de recherche utilisent de plus en plus l'IA générative pour fournir des réponses directement aux internautes plutôt que de renvoyer vers des sites comme le nôtre. « Et les jeunes générations recherchent des informations sur les plateformes vidéo sociales plutôt que sur le Web ouvert. Cette évolution progressive n'est pas propre à Wikipédia », a déclaré le cadre de Wikimédia.
De nombreux autres éditeurs et sites Web de contenu signalent des changements similaires, les utilisateurs passant plus de temps sur les moteurs de recherche, les chatbots d'IA et les réseaux sociaux pour trouver des informations. Ils subissent également la pression que ces entreprises exercent sur leur infrastructure. Marshall Miller a appelé les gens à « adopter des comportements en ligne qui favorisent l'intégrité et la création de contenu ».
« Lorsque vous recherchez des informations en ligne, recherchez les citations et cliquez sur le lien vers la source originale. « Discutez avec vos proches de l'importance des connaissances fiables et sélectionnées par des humains, et aidez-les à comprendre que le contenu sous-jacent à l'IA générative a été créé par de vraies personnes qui méritent leur soutien », a-t-il ajouté. La frénésie autour de l'IA pourrait toutefois empêcher son appel d'être entendu.
Le modèle économique traditionnel des sites Web s'effondre
Les inquiétudes concernant le fait que Google tire profit du contenu des éditeurs sans partager le précieux trafic Web ont conduit à réexaminer le modèle économique de la publicité basée sur les recherches, qui a largement alimenté l'économie du Web. Les internautes n'ont plus besoin de cliquer sur des liens pour obtenir une réponse et les revenus fondent. Selon certains observateurs, il fallait autrefois deux pages publiées pour générer un visiteur.
Désormais, il en faut des dizaines, voire des centaines, pour une seule visite quand l'IA est intermédiaire. On ne sait pas encore si un modèle commercial alternatif viable verra le jour, mais des expériences ont déjà commencé. Certains cherchent comment mettre fin à l'exploration anarchique du Web par les chatbots.
Début juillet 2025, Cloudflare a proposé la création d'une « infrastructure de péage » pour les robots d'indexation utilisés par l'IA afin d'aider les éditeurs. À l'avenir, tous les nouveaux clients de Cloudflare se verront demander s'ils souhaitent autoriser les robots des entreprises d'IA à explorer leurs sites Web, et dans quel but. Selon le PDG de Cloudflare, Matthew Prince, « l'IA est un fardeau économique », ajoutant qu'elle brise le modèle économique du Web.
« Nous devons fixer les règles du jeu », déclare Matthew Prince, qui dit préférer « un monde où les humains obtiendraient du contenu gratuitement et où les robots paieraient une tonne pour l'obtenir ». Récemment, Cloudflare a exigé de Google qu'il modifie la manière dont ses systèmes d'IA explorent le Web : « nous obtiendrons de Google un moyen de bloquer AI Overviews sans bloquer l'indexation de la recherche classique », a déclaré l'entreprise.
La société Tollbit propose également une solution : il s'agit d'un paywall permettant aux sites de contenu de faire payer aux robots d'indexation des tarifs variables. Par exemple, une publication pourrait faire payer davantage pour les nouveaux articles que pour les anciens. Au cours du premier trimestre de cette année, Tollbit a traité 15 millions de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.