IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Wikipédia a interdit les textes générés par l'IA, après avoir été confrontée à des faits erronés, des citations invérifiables, des perturbations dans la collaboration et des exemples d'échecs liés à l'IA

Le , par Alex

18PARTAGES

9  0 
Wikipédia, l'encyclopédie en ligne tant appréciée, débat depuis un certain temps sur la manière de gérer l'utilisation des grands modèles de langage (LLM) dans ses articles. Désormais, cette pratique est officiellement interdite, à l'exception de quelques cas particuliers dans le cadre de la révision et de la traduction. Après de longs débats, la nouvelle politique est entrée en vigueur : les auteurs de Wikipédia ne sont pas autorisés à utiliser les LLM pour générer ou réécrire le contenu des articles. Il existe toutefois deux exceptions principales. Premièrement, les contributeurs peuvent utiliser les LLM pour suggérer des améliorations à leurs propres textes, à condition que l'exactitude des modifications soit vérifiée. La deuxième exception concernant les LLM concerne l’aide à la traduction.

Wikipédia est une encyclopédie en ligne gratuite rédigée et mise à jour par une communauté de bénévoles grâce à une collaboration ouverte et au logiciel wiki MediaWiki. Fondée par Jimmy Wales et Larry Sanger en 2001, Wikipédia est hébergée depuis 2003 par la Fondation Wikimedia, une organisation américaine à but non lucratif financée principalement par les dons des lecteurs. Wikipédia est l'ouvrage de référence le plus volumineux et le plus lu de l'histoire.

En mai 2025, la Fondation Wikimedia a annoncé utiliser l'IA pour rationaliser les opérations et améliorer l'expérience de l'utilisateur sur Wikipédia. « Nous utiliserons l'IA pour créer des fonctionnalités qui éliminent les obstacles techniques afin de permettre aux personnes qui sont au cœur de Wikipédia de consacrer leur temps précieux à ce qu'ils veulent accomplir, et non à la manière d'y parvenir techniquement. » La Fondation Wikimedia prévoyait d'utiliser l'IA pour automatiser les tâches fastidieuses, améliorer la recherche d'informations, faciliter les traductions et aider à l'intégration des nouveaux bénévoles.

Cependant, dans une annonce récente, la Fondation Wikimedia semble changer d'avis. Wikipédia, l'encyclopédie en ligne tant appréciée, débat depuis un certain temps sur la manière de gérer l'utilisation des grands modèles de langage (LLM) dans ses articles. Désormais, cette pratique est officiellement interdite, à l'exception de quelques cas particuliers dans le cadre de la révision et de la traduction.

L'administrateur de Wikipédia Chaotic Enby a expliqué dans la proposition initiale : « Les propositions antérieures visant à établir une ligne directrice communautaire immédiate et exhaustive sur les LLM ont échoué en raison des difficultés habituelles liées au traitement simultané de problèmes complexes et de grande envergure : les contributeurs, même ceux qui approuvaient globalement les objectifs de ces propositions, ont relevé des problèmes spécifiques dans certaines parties et ont critiqué le fait qu'elles étaient trop vagues ou trop précises. Un consensus existait sur l'idée du changement, mais pas sur sa mise en œuvre. »


Après de longs débats, la nouvelle politique est entrée en vigueur : les auteurs de Wikipédia ne sont pas autorisés à utiliser les LLM pour générer ou réécrire le contenu des articles. Il existe toutefois deux exceptions principales.

Premièrement, les contributeurs peuvent utiliser les LLM pour suggérer des améliorations à leurs propres textes, à condition que l'exactitude des modifications soit vérifiée. En d'autres termes, ces outils sont traités comme n'importe quel autre correcteur grammatical ou outil d'aide à la rédaction. La politique stipule : « Les LLM peuvent aller au-delà de ce que vous leur demandez et modifier le sens du texte de telle sorte qu’il ne soit plus étayé par les sources citées. »

La deuxième exception concernant les LLM concerne l’aide à la traduction. Les contributeurs peuvent utiliser des outils d’IA pour une première traduction du texte, mais ils doivent tout de même maîtriser suffisamment les deux langues pour repérer les erreurs. Comme pour les améliorations rédactionnelles habituelles, toute personne utilisant des LLM doit également vérifier qu’aucune information erronée n’a été introduite.

Il est important de noter que cette politique s'applique uniquement à Wikipédia en anglais (en.wikipedia.org). Chaque site Wikipédia dispose de ses propres règles et équipes de rédaction indépendantes, et d'autres sites peuvent décider d'adopter des règles différentes. Par exemple, Wikipédia en espagnol (es.wikipedia.org) interdit actuellement l'utilisation des LLM pour créer de nouveaux articles Wikipédia à partir de zéro ou pour développer des entrées existantes, sans exception spécifique pour la traduction ou l'aide à la rédaction.

Malheureusement, l'identification des textes rédigés à l'aide de LLM reste une science imparfaite, de sorte que certains textes de mauvaise qualité générés par l'IA peuvent encore apparaître sur des pages moins fréquemment modérées. Wikipédia propose quelques conseils pour repérer les textes générés par des LLM, mais la page de la politique précise également que « certains contributeurs peuvent avoir des styles d'écriture similaires à ceux des LLM ».

Ces problèmes représentent une partie des défis posés par l'IA. En avril 2025, la Fondation Wikimedia avait soulevé un autre problème. La fondation a annoncé que le scraping incessant de l'IA mettait à rude épreuve les serveurs de Wikipédia. Des robots automatisés à la recherche de données d'entraînement de modèles d'IA pour des LLM ont aspiré des téraoctets de données, augmentant de 50 % la bande passante utilisée par la fondation pour télécharger des contenus multimédias depuis janvier 2024. Cette croissance exponentielle du trafic non humain a imposé des coûts techniques et financiers considérables, souvent sans l'attribution qui aide à soutenir l'écosystème bénévole de Wikimedia.

Puis en octobre 2025, Wikipédia a alerté sur l'impact de l'IA sur la plateforme : l'encyclopédie en ligne est confrontée à une baisse significative du trafic humain. De plus en plus d'internautes obtiennent les informations contenues dans Wikipédia via des chatbots d'IA générative tels que ChatGPT et Gemini. Les chatbots répondent directement, en s’appuyant sur les contenus existants, sans rediriger vers les créateurs. L'IA ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des bots, sans originalité. La Fondation Wikimédia affirme que cela représente un risque pour la viabilité à long terme de Wikipédia.

Source : Wikipedia:Writing articles with large language models

Voici la traduction d'un essai humoristique qui montre la justesse de cette décision :

Wikipédia : Arguments contre les articles générés par les grands modèles de langage (LLM)

À l'ère des grands modèles de langage (LLM) tels que ChatGPT, il peut être tentant d'utiliser ces outils pour générer rapidement des articles Wikipédia. Leur style fluide et leur rapidité de production constituent un raccourci séduisant. Cependant, la communauté des contributeurs de Wikipédia s'oppose massivement à ce que les LLM rédigent notre contenu. La raison est simple : ces textes générés par l'IA menacent les principes fondamentaux qui font la fiabilité de Wikipédia. Nous avons constaté que demander à un LLM d’« écrire un article Wikipédia » peut aboutir à de pures inventions, accompagnées de références fictives. Des inexactitudes factuelles que les lecteurs pourraient ne jamais repérer aux citations qui ne mènent nulle part, le contenu créé par les LLM présente des risques que Wikipédia ne peut se permettre. Cet essai expose les préoccupations...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Daïmanu
Membre émérite https://www.developpez.com
Le 26/03/2026 à 15:29
Sur ce point, je note la transparence du Wikipedia anglais, avec tout un historique de point de vue sur l'IAg : https://en.wikipedia.org/wiki/Wikipe...ssion_timeline, qui a évolué de pas de promotion, à interdiction.

En version francophone, l'usage actuel est vivement déconseillé avec tout de même quelques tolérances (résumer un source, reformuler du texte, corrections orthographiques, typographiques et syntaxiques, et vérifier le sens d'un mot étranger).
1  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 28/03/2026 à 9:34
Citation Envoyé par der§en Voir le message
Si les IA sont logique et pas malmenés par le wokisme, et autre crétinerie du même acabit ,l’orientation idéologique de Wikipedia va bien changer dans les prochains mois
Qu'est-ce qu'il faut pas lire comme connerie.
Pour rappel, Woke ça veut dire "éveillé", ce qui veut dire que t'es fier d'avoir choisi un camp qui se revendique lui-même comme étant attardé (on se croirait dans une cours de récré où les gens insultent un mec d'intello).
J'imagine que ce que tu appelles woke c'est un "excès" de tolérance envers les gens qui ne sont pas comme toi (couleur de peau, orientation sexuelle et compagnie). Tu peux me donner un exemple d'article qui justifie une telle réaction de ta part stp ?

Sinon, je comprends pas la logique de ta phrase (t'es sûr que t'étais réveillé quand t'as posté ?) :
D'après cet article, Wikipedia veut arrêter d'utiliser des générateurs de contenus artificiels, pas se mettre à les utiliser plein pot.
2  1 
Avatar de AnteMeridiam
Nouveau Candidat au Club https://www.developpez.com
Le 26/03/2026 à 18:03
Je trouve ça assez étrange : pour moi, les règles de Wikipédia (transparence, clarté...) suffisent, sans qu'il n'y ait besoin d'une règle restrictive anti-IA, qui interdirait aussi un usage rasionné.
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 27/03/2026 à 8:35
comment ils vont savoir si c'est du texte généré par ia ou par un humain ?
sachant que les modèles d'aujourd'hui sont capable d’imiter un humain et à l'inverse les humains parlent/écrivent de plus en plus comme chatgpt (voir Contamination linguistique).
0  0 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 27/03/2026 à 9:53
Si les IA sont logique et pas malmenés par le wokisme, et autre crétinerie du même acabit ,l’orientation idéologique de Wikipedia va bien changer dans les prochains mois
1  1