À force de vouloir distinguer l’écriture humaine de la production automatisée, le web est peut-être en train de provoquer l’effet inverse. Un nouveau plugin d’aide à la rédaction s’appuie sur les règles internes utilisées par Wikipedia pour repérer les textes générés par intelligence artificielle, afin… d’aider l’IA à mieux imiter l’humain. Présentée comme une amélioration stylistique, cette approche soulève un débat de fond sur la nature même de l’écriture, la pertinence des outils de détection et l’avenir de la confiance éditoriale en ligne.Depuis plusieurs années, la lutte contre les contenus générés automatiquement est un sujet central pour les plateformes collaboratives. C'est dans ce contexte d'ailleurs qu'un détecteur de contenu généré par IA et présenté comme étant « le plus avancé et fiable » a conclu que la Bible a été écrite par une IA.
Si Sean Goedecke a récemment indiqué que les outils de détection de l'IA ne peuvent pas prouver qu'un texte a été généré par l'IA, cela n'empêche pas les tentatives de solution.
Wikipedia, dont le modèle repose sur la contribution humaine et la vérifiabilité, a progressivement affiné des règles empiriques permettant d’identifier les textes jugés trop « mécaniques ». Il ne s’agit pas d’un simple détecteur statistique, mais d’un ensemble de signaux rédactionnels : structure trop lisse, absence de nuances, formulations génériques, transitions artificielles ou encore surabondance de phrases explicatives sans point de vue clair.
Le plugin dont il est question détourne cette logique. Plutôt que d’utiliser ces critères pour bloquer ou supprimer un texte, il les intègre directement dans le processus de génération. L’objectif est clair : produire des phrases qui évitent précisément les travers associés à l’écriture automatique, en introduisant des aspérités stylistiques, des variations de rythme et une forme de narration plus organique.
Une approche technique fondée sur les « anti-patterns » de l’IA
Samedi, l'entrepreneur technologique Siqi Chen a publié un plugin open source pour l'assistant IA Claude Code d'Anthropic qui demande au modèle IA d'arrêter d'écrire comme un modèle IA. Baptisé « Humanizer », ce plugin simple fournit à Claude une liste de 24 modèles linguistiques et de formatage que les éditeurs de Wikipédia ont répertoriés comme des indices révélateurs des chatbots. Chen a publié le plugin sur GitHub, où il a recueilli plus de 1 600 étoiles lundi.
« C'est vraiment pratique que Wikipédia ait compilé une liste détaillée des "signes d'écriture IA" », a écrit Chen sur X. « À tel point que vous pouvez simplement dire à votre LLM de... ne pas le faire. »
La source est un guide du WikiProject AI Cleanup, un groupe d'éditeurs Wikipédia qui traquent les articles générés par l'IA depuis fin 2023. L'éditeur Wikipédia français Ilyas Lebleu a fondé le projet. Les bénévoles ont marqué plus de 500 articles à examiner et, en août 2025, ont publié une liste officielle des modèles qu'ils continuaient à voir.
D’un point de vue technique, le fonctionnement du plugin repose sur un principe relativement simple mais redoutablement efficace. Les règles de détection de Wikipedia sont traduites en contraintes inversées. Là où un texte IA est souvent trop équilibré, le modèle est encouragé à introduire des irrégularités. Là où les phrases sont trop prévisibles, des constructions moins attendues sont favorisées. Là où le ton aest neutre et encyclopédique, une légère subjectivité contrôlée peut être injectée.
Cette approche ne vise pas à tromper un algorithme unique, mais à s’aligner sur des standards éditoriaux humains éprouvés. En ce sens, le plugin agit davantage comme un coach stylistique que comme un simple filtre. Il rappelle que l’écriture humaine n’est pas seulement une question de grammaire correcte, mais de choix, d’intentions et parfois même d’imperfections assumées.
Quand la détection devient une source d’inspiration
Il faut reconnaître au projet une certaine cohérence intellectuelle. Les règles de détection mises au point par Wikipedia ne sont pas des algorithmes opaques, mais le fruit d’années de modération humaine. Elles décrivent ce qui, dans un texte, « sonne faux » : une structure trop lisse, un ton excessivement neutre, une absence de point de vue, des transitions mécaniques ou une accumulation d’explications sans véritable intention narrative.
En s’appuyant sur ces critères, le plugin ne cherche pas à améliorer la grammaire ou l’orthographe, déjà largement maîtrisées par les modèles de langage. Il vise un niveau plus élevé : le style, le rythme, la respiration du texte. D’un point de vue purement rédactionnel, l’idée peut apparaître vertueuse. Elle pousse l’IA à éviter les tics les plus évidents de l’écriture automatisée et à produire des contenus moins génériques, potentiellement plus agréables à lire.
Pour certains usages professionnels — documentation interne, brouillons éditoriaux, supports pédagogiques — cette approche peut même être perçue comme un progrès. Elle rappelle que la qualité d’un texte ne se résume pas à l’exactitude factuelle, mais aussi à sa capacité à engager le lecteur.
Une mise en abyme inquiétante pour la détection de l’IA
Mais cette logique révèle rapidement ses limites. En utilisant les règles de détection comme guide de génération, le plugin illustre une dynamique bien connue : chaque mécanisme de contrôle devient une source d’optimisation pour ce qu’il cherche à encadrer. La frontière entre amélioration stylistique et contournement assumé devient alors extrêmement mince.
Le problème n’est pas tant technique que conceptuel. Si les critères utilisés pour identifier un texte IA peuvent être systématiquement inversés, cela signifie que la détection basée sur le style est structurellement fragile. Elle repose sur des signaux mouvants, culturels, et donc imitable. À terme, la question n’est plus de savoir si un texte est détectable, mais si la détection elle-même a encore un sens opérationnel.
Ce glissement fragilise les plateformes qui fondent leur crédibilité sur la contribution humaine. Il introduit une zone grise où des contenus peuvent respecter toutes les normes formelles de l’écriture humaine tout en étant produits sans intention, sans vécu et sans responsabilité directe.
Les promesses réelles : une IA plus lisible, moins caricaturale
Il serait cependant réducteur de rejeter en bloc ce type d’outil. En forçant les modèles à sortir de leurs automatismes, le plugin met en lumière une faiblesse réelle de l’IA générative actuelle : sa tendance à produire des textes corrects mais fades, informatifs mais interchangeables. En cela, l’intégration de règles issues de pratiques éditoriales humaines peut contribuer à relever le niveau moyen de lisibilité sur le web.
Cette approche rappelle aussi une vérité souvent oubliée : beaucoup de contenus humains sont eux-mêmes formatés, répétitifs et peu incarnés. Si un outil pousse l’IA à écrire « moins comme une IA », il met indirectement en évidence ce qui fait encore la différence d’un bon auteur : le point de vue, la subjectivité assumée, la capacité à prendre un risque stylistique.
Dans cette perspective, le plugin peut être vu comme un miroir tendu aux rédacteurs humains autant qu’aux machines.
[B]Les limites fondamentales : imitation sans intention, écriture sans...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.