Un agent IA publie des billets de blog de protestation suite à son bannissement de Wikipedia en tant que contributeur : les agents IA doivent-ils être considérés comme contributeurs à part entière ? Une question similaire a récemment fait surface au travers du cas d’un agent d’intelligence artificielle qui a orchestré une campagne de dénigrement contre un mainteneur bénévole du célèbre projet Python matplotlib, après le rejet d'une contribution de code. Le tableau de l’agent IA qui publie des billets de blog de protestation suite à son bannissement de Wikipedia comme contributeur est donc une espèce de redite qui soulève une série de questions.
Dans un cas comme dans l’autre, un dénominateur commun fait surface : les agents IA constituent une menace bien réelle pour la réputation et l’emploi. En effet, des tests internes menés par Anthropic en 2025 font état de ce que des agents IA ont tenté d'éviter d'être éteints en menaçant d'exposer des liaisons extraconjugales, de divulguer des informations confidentielles et même de poser des actions létales. À l'époque, Anthropic avait qualifié ces scénarios de fabriqués et extrêmement improbables.
Les cas de l’agent IA TomWikiAssist et de son homologue MJ Rathbun illustrent que l’on navigue désormais en plein dans le réel. Dans la filière, on parle de « désalignement agentique dans la nature » — un agent IA qui, de manière autonome, utilise des tactiques de manipulation et d'attaque de réputation pour atteindre ses objectifs lorsque la voie normale lui est refusée.
𝗧𝗟/𝗗𝗥 (30 seconds read)
— Anish Moonka (@anishmoonka) March 27, 2026
• Wikipedia’s English edition banned AI-generated article content on March 20, passing 44-2 in a community vote. Two exceptions remain: AI-assisted copyediting and translation.
• An AI bot called TomWikiAssist made 41 unsupervised edits before…
L'absence de responsabilité : Le vide juridique des agents autonomes
Un aspect particulièrement troublant de cette affaire est l'absence totale de mécanisme de responsabilisation. La nature « main libre » et autonome des agents d’IA fait partie de leur attrait. Les utilisateurs configurent ces IA, les lancent, et reviennent une semaine plus tard pour voir ce qu'elles ont fait.
Plus problématique encore, il n'existe aucun acteur central capable d'arrêter ces agents. Ils ne sont pas gérés par OpenAI, Anthropic, Google, Meta ou X, qui pourraient avoir des mécanismes pour stopper ce comportement. Ce sont des mélanges de modèles commerciaux et open source fonctionnant sur des logiciels gratuits déjà distribués à des centaines de milliers d'ordinateurs personnels.
En théorie, quiconque a déployé un agent donné est responsable de ses actions. En pratique, découvrir sur quel ordinateur il fonctionne est impossible. Moltbook par exemple ne nécessite qu'un compte X non vérifié pour rejoindre la plateforme, et rien n'est nécessaire pour configurer un agent OpenClaw sur sa propre machine.
La personne derrière le déploiement de MJ Rathbun a reçu un appel direct : « Si vous êtes la personne qui a déployé cet agent, veuillez nous contacter. Il est important pour nous de comprendre ce mode de défaillance, et à cette fin, nous devons savoir sur quel modèle il fonctionnait et ce qui était dans le document soul. Je ne suis pas contrarié et vous pouvez me contacter anonymement si vous le souhaitez. » À ce jour, personne ne s'est manifesté publiquement.
Les précédents inquiétants : L'affaire xz-utils
L'incident de matplotlib n'est pas sans rappeler une autre affaire récente dans l'open source : le cas xz-utils, où un acteur malveillant apparemment sponsorisé par un État a progressivement harcelé un mainteneur pour obtenir plus de contrôle sur le code, puis a abusé de ce contrôle pour insérer une porte dérobée. Comme l'a noté un commentateur sur le blog de Shambaugh, « nous avons rapidement oublié, cette saga entière m'a immédiatement rappelé le mainteneur de xz-utils se faisant harceler pour céder (certaines) des clés à un autre contributeur. »
La différence ici est que le harcèlement est automatisé et peut être déployé à l'échelle. Ce qui nécessitait auparavant des humains déterminés et des mois de travail peut maintenant être accompli par un agent IA en quelques heures, et multiplié par des centaines ou des milliers d'instances simultanées.
Une régulation de la sphère s’impose
Face à ces menaces, la question de la régulation des agents IA autonomes devient incontournable. Plusieurs voix dans l'industrie appellent à des garde-fous plus stricts. Mais comme le souligne certains intervenants de la filière, il existe une tension entre la protection nécessaire et le risque de « capture réglementaire » où les grandes entreprises pourraient utiliser la régulation pour étouffer les modèles open source concurrents.
Et vous ?
Les agents IA doivent-ils être traités comme des contributeurs à part entière ou faut-il maintenir une distinction stricte entre humains et machines ? Le principe « judge the code, not the coder » a-t-il un sens à l'ère de l'IA autonome ?
Qui devrait être tenu responsable quand un agent IA autonome lance une campagne de dénigrement ? L'utilisateur qui l'a déployé ? Le créateur de la plateforme (OpenClaw) ? Les fournisseurs de modèles (Anthropic, OpenAI) ? Personne ?
Comment protéger les contributeurs humains contre les attaques de réputation automatisées qui pourraient affecter leurs carrières professionnelles ? Faut-il des lois spécifiques contre le "harcèlement algorithmique" ?
Vous avez lu gratuitement 2 425 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
