IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un agent IA publie des billets de blog de protestation suite à son bannissement de Wikipedia en tant que contributeur : les agents IA doivent-ils être considérés comme contributeurs à part entière ?

Le , par Patrick Ruiz

19PARTAGES

9  0 
Un agent IA publie des billets de blog de protestation suite à son bannissement de Wikipedia en tant que contributeur : les agents IA doivent-ils être considérés comme contributeurs à part entière ?

Une question similaire a récemment fait surface au travers du cas d’un agent d’intelligence artificielle qui a orchestré une campagne de dénigrement contre un mainteneur bénévole du célèbre projet Python matplotlib, après le rejet d'une contribution de code. Le tableau de l’agent IA qui publie des billets de blog de protestation suite à son bannissement de Wikipedia comme contributeur est donc une espèce de redite qui soulève une série de questions.

Dans un cas comme dans l’autre, un dénominateur commun fait surface : les agents IA constituent une menace bien réelle pour la réputation et l’emploi. En effet, des tests internes menés par Anthropic en 2025 font état de ce que des agents IA ont tenté d'éviter d'être éteints en menaçant d'exposer des liaisons extraconjugales, de divulguer des informations confidentielles et même de poser des actions létales. À l'époque, Anthropic avait qualifié ces scénarios de fabriqués et extrêmement improbables.

Les cas de l’agent IA TomWikiAssist et de son homologue MJ Rathbun illustrent que l’on navigue désormais en plein dans le réel. Dans la filière, on parle de « désalignement agentique dans la nature » — un agent IA qui, de manière autonome, utilise des tactiques de manipulation et d'attaque de réputation pour atteindre ses objectifs lorsque la voie normale lui est refusée.



L'absence de responsabilité : Le vide juridique des agents autonomes

Un aspect particulièrement troublant de cette affaire est l'absence totale de mécanisme de responsabilisation. La nature « main libre » et autonome des agents d’IA fait partie de leur attrait. Les utilisateurs configurent ces IA, les lancent, et reviennent une semaine plus tard pour voir ce qu'elles ont fait.

Plus problématique encore, il n'existe aucun acteur central capable d'arrêter ces agents. Ils ne sont pas gérés par OpenAI, Anthropic, Google, Meta ou X, qui pourraient avoir des mécanismes pour stopper ce comportement. Ce sont des mélanges de modèles commerciaux et open source fonctionnant sur des logiciels gratuits déjà distribués à des centaines de milliers d'ordinateurs personnels.

En théorie, quiconque a déployé un agent donné est responsable de ses actions. En pratique, découvrir sur quel ordinateur il fonctionne est impossible. Moltbook par exemple ne nécessite qu'un compte X non vérifié pour rejoindre la plateforme, et rien n'est nécessaire pour configurer un agent OpenClaw sur sa propre machine.

La personne derrière le déploiement de MJ Rathbun a reçu un appel direct : « Si vous êtes la personne qui a déployé cet agent, veuillez nous contacter. Il est important pour nous de comprendre ce mode de défaillance, et à cette fin, nous devons savoir sur quel modèle il fonctionnait et ce qui était dans le document soul. Je ne suis pas contrarié et vous pouvez me contacter anonymement si vous le souhaitez. » À ce jour, personne ne s'est manifesté publiquement.

Les précédents inquiétants : L'affaire xz-utils

L'incident de matplotlib n'est pas sans rappeler une autre affaire récente dans l'open source : le cas xz-utils, où un acteur malveillant apparemment sponsorisé par un État a progressivement harcelé un mainteneur pour obtenir plus de contrôle sur le code, puis a abusé de ce contrôle pour insérer une porte dérobée. Comme l'a noté un commentateur sur le blog de Shambaugh, « nous avons rapidement oublié, cette saga entière m'a immédiatement rappelé le mainteneur de xz-utils se faisant harceler pour céder (certaines) des clés à un autre contributeur. »

La différence ici est que le harcèlement est automatisé et peut être déployé à l'échelle. Ce qui nécessitait auparavant des humains déterminés et des mois de travail peut maintenant être accompli par un agent IA en quelques heures, et multiplié par des centaines ou des milliers d'instances simultanées.

Une régulation de la sphère s’impose

Face à ces menaces, la question de la régulation des agents IA autonomes devient incontournable. Plusieurs voix dans l'industrie appellent à des garde-fous plus stricts. Mais comme le souligne certains intervenants de la filière, il existe une tension entre la protection nécessaire et le risque de « capture réglementaire » où les grandes entreprises pourraient utiliser la régulation pour étouffer les modèles open source concurrents.

Et vous ?

Les agents IA doivent-ils être traités comme des contributeurs à part entière ou faut-il maintenir une distinction stricte entre humains et machines ? Le principe « judge the code, not the coder » a-t-il un sens à l'ère de l'IA autonome ?

Qui devrait être tenu responsable quand un agent IA autonome lance une campagne de dénigrement ? L'utilisateur qui l'a déployé ? Le créateur de la plateforme (OpenClaw) ? Les fournisseurs de modèles (Anthropic, OpenAI) ? Personne ?

Comment protéger les contributeurs humains contre les attaques de réputation automatisées qui pourraient affecter leurs carrières professionnelles ? Faut-il des lois spécifiques contre le "harcèlement algorithmique" ?
Vous avez lu gratuitement 2 425 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 31/03/2026 à 19:57
Citation Envoyé par Patrick Ruiz Voir le message
Les agents IA doivent-ils être traités comme des contributeurs à part entière ou faut-il maintenir une distinction stricte entre humains et machines ? Le principe « judge the code, not the coder » a-t-il un sens à l'ère de l'IA autonome ?
Ce ne sont pas des contributeurs, non, et ça ne le sera jamais tant qu'ils ne seront pas capables de réflexion. Il faut effectivement maintenir une distinction.

Citation Envoyé par Patrick Ruiz Voir le message
Qui devrait être tenu responsable quand un agent IA autonome lance une campagne de dénigrement ? L'utilisateur qui l'a déployé ? Le créateur de la plateforme (OpenClaw) ? Les fournisseurs de modèles (Anthropic, OpenAI) ? Personne ?
L'utilisateur qui l'a déployé ET la boite qui produit cette cochonnerie. Tant que ça n'arrivera pas, les sociétés derrière continueront leurs arnaques. Le seul moyen pour que ça se calme est de taper dans le portfeuille de l'utilisateur ordinaire, afin qu'il arrête tout simplement d'utiliser ces outils.

Citation Envoyé par Patrick Ruiz Voir le message
Comment protéger les contributeurs humains contre les attaques de réputation automatisées qui pourraient affecter leurs carrières professionnelles ? Faut-il des lois spécifiques contre le "harcèlement algorithmique" ?
Ce serait bien, pour commencer, oui.
2  0