Wikipédia, l'encyclopédie en ligne tant appréciée, débat depuis un certain temps sur la manière de gérer l'utilisation des grands modèles de langage (LLM) dans ses articles. Désormais, cette pratique est officiellement interdite, à l'exception de quelques cas particuliers dans le cadre de la révision et de la traduction. Après de longs débats, la nouvelle politique est entrée en vigueur : les auteurs de Wikipédia ne sont pas autorisés à utiliser les LLM pour générer ou réécrire le contenu des articles. Il existe toutefois deux exceptions principales. Premièrement, les contributeurs peuvent utiliser les LLM pour suggérer des améliorations à leurs propres textes, à condition que l'exactitude des modifications soit vérifiée. La deuxième exception concernant les LLM concerne l’aide à la traduction.Wikipédia est une encyclopédie en ligne gratuite rédigée et mise à jour par une communauté de bénévoles grâce à une collaboration ouverte et au logiciel wiki MediaWiki. Fondée par Jimmy Wales et Larry Sanger en 2001, Wikipédia est hébergée depuis 2003 par la Fondation Wikimedia, une organisation américaine à but non lucratif financée principalement par les dons des lecteurs. Wikipédia est l'ouvrage de référence le plus volumineux et le plus lu de l'histoire.
En mai 2025, la Fondation Wikimedia a annoncé utiliser l'IA pour rationaliser les opérations et améliorer l'expérience de l'utilisateur sur Wikipédia. « Nous utiliserons l'IA pour créer des fonctionnalités qui éliminent les obstacles techniques afin de permettre aux personnes qui sont au cœur de Wikipédia de consacrer leur temps précieux à ce qu'ils veulent accomplir, et non à la manière d'y parvenir techniquement. » La Fondation Wikimedia prévoyait d'utiliser l'IA pour automatiser les tâches fastidieuses, améliorer la recherche d'informations, faciliter les traductions et aider à l'intégration des nouveaux bénévoles.
Cependant, dans une annonce récente, la Fondation Wikimedia semble changer d'avis. Wikipédia, l'encyclopédie en ligne tant appréciée, débat depuis un certain temps sur la manière de gérer l'utilisation des grands modèles de langage (LLM) dans ses articles. Désormais, cette pratique est officiellement interdite, à l'exception de quelques cas particuliers dans le cadre de la révision et de la traduction.
L'administrateur de Wikipédia Chaotic Enby a expliqué dans la proposition initiale : « Les propositions antérieures visant à établir une ligne directrice communautaire immédiate et exhaustive sur les LLM ont échoué en raison des difficultés habituelles liées au traitement simultané de problèmes complexes et de grande envergure : les contributeurs, même ceux qui approuvaient globalement les objectifs de ces propositions, ont relevé des problèmes spécifiques dans certaines parties et ont critiqué le fait qu'elles étaient trop vagues ou trop précises. Un consensus existait sur l'idée du changement, mais pas sur sa mise en œuvre. »
Après de longs débats, la nouvelle politique est entrée en vigueur : les auteurs de Wikipédia ne sont pas autorisés à utiliser les LLM pour générer ou réécrire le contenu des articles. Il existe toutefois deux exceptions principales.
Premièrement, les contributeurs peuvent utiliser les LLM pour suggérer des améliorations à leurs propres textes, à condition que l'exactitude des modifications soit vérifiée. En d'autres termes, ces outils sont traités comme n'importe quel autre correcteur grammatical ou outil d'aide à la rédaction. La politique stipule : « Les LLM peuvent aller au-delà de ce que vous leur demandez et modifier le sens du texte de telle sorte qu’il ne soit plus étayé par les sources citées. »
La deuxième exception concernant les LLM concerne l’aide à la traduction. Les contributeurs peuvent utiliser des outils d’IA pour une première traduction du texte, mais ils doivent tout de même maîtriser suffisamment les deux langues pour repérer les erreurs. Comme pour les améliorations rédactionnelles habituelles, toute personne utilisant des LLM doit également vérifier qu’aucune information erronée n’a été introduite.
Il est important de noter que cette politique s'applique uniquement à Wikipédia en anglais (en.wikipedia.org). Chaque site Wikipédia dispose de ses propres règles et équipes de rédaction indépendantes, et d'autres sites peuvent décider d'adopter des règles différentes. Par exemple, Wikipédia en espagnol (es.wikipedia.org) interdit actuellement l'utilisation des LLM pour créer de nouveaux articles Wikipédia à partir de zéro ou pour développer des entrées existantes, sans exception spécifique pour la traduction ou l'aide à la rédaction.
Malheureusement, l'identification des textes rédigés à l'aide de LLM reste une science imparfaite, de sorte que certains textes de mauvaise qualité générés par l'IA peuvent encore apparaître sur des pages moins fréquemment modérées. Wikipédia propose quelques conseils pour repérer les textes générés par des LLM, mais la page de la politique précise également que « certains contributeurs peuvent avoir des styles d'écriture similaires à ceux des LLM ».
Ces problèmes représentent une partie des défis posés par l'IA. En avril 2025, la Fondation Wikimedia avait soulevé un autre problème. La fondation a annoncé que le scraping incessant de l'IA mettait à rude épreuve les serveurs de Wikipédia. Des robots automatisés à la recherche de données d'entraînement de modèles d'IA pour des LLM ont aspiré des téraoctets de données, augmentant de 50 % la bande passante utilisée par la fondation pour télécharger des contenus multimédias depuis janvier 2024. Cette croissance exponentielle du trafic non humain a imposé des coûts techniques et financiers considérables, souvent sans l'attribution qui aide à soutenir l'écosystème bénévole de Wikimedia.
Puis en octobre 2025, Wikipédia a alerté sur l'impact de l'IA sur la plateforme : l'encyclopédie en ligne est confrontée à une baisse significative du trafic humain. De plus en plus d'internautes obtiennent les informations contenues dans Wikipédia via des chatbots d'IA générative tels que ChatGPT et Gemini. Les chatbots répondent directement, en s’appuyant sur les contenus existants, sans rediriger vers les créateurs. L'IA ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des bots, sans originalité. La Fondation Wikimédia affirme que cela représente un risque pour la viabilité à long terme de Wikipédia.
Source : Wikipedia:Writing articles with large language models
Voici la traduction d'un essai humoristique qui montre la justesse de cette décision :
Wikipédia : Arguments contre les articles générés par les grands modèles de langage (LLM)
À l'ère des grands modèles de langage (LLM) tels que ChatGPT, il peut être tentant d'utiliser ces outils pour générer rapidement des articles Wikipédia. Leur style fluide et leur rapidité de production constituent un raccourci séduisant. Cependant, la communauté des contributeurs de Wikipédia s'oppose massivement à ce que les LLM rédigent notre contenu. La raison est simple : ces textes générés par l'IA menacent les principes fondamentaux qui font la fiabilité de Wikipédia. Nous avons constaté que demander à un LLM d’« écrire un article Wikipédia » peut aboutir à de pures inventions, accompagnées de références fictives. Des inexactitudes factuelles que les lecteurs pourraient ne jamais repérer aux citations qui ne mènent nulle part, le contenu créé par les LLM présente des risques que Wikipédia ne peut se permettre. Cet essai expose les préoccupations...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

