IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La fuite du code source de Claude Code révèle les plans d'Anthropic : un agent persistant, un mode « furtif » pour cacher ses traces dans l'open source, un mécanisme anti-distillation pour la concurrence

Le , par Stéphane le calme

56PARTAGES

5  0 
Un fichier de débogage oublié dans un paquet npm a suffi à exposer 512 000 lignes de TypeScript au monde entier. L'incident, survenu le 31 mars 2026, révèle bien plus qu'une négligence de pipeline : il donne à voir, pour la première fois, l'architecture interne d'un agent de codage IA en production, ses fonctionnalités secrètes, ses mécanismes de protection et ses contradictions embarrassantes. Décryptage.

Tout commence par un tweet de Chaofan Shou, chercheur en sécurité chez Fuzzland, le matin du 31 mars 2026. En téléchargeant la version 2.1.88 du paquet @anthropic-ai/claude-code depuis le registre npm, il remarque quelque chose d'inhabituel : un fichier .map de 59,8 mégaoctets joint au binaire de production. Ces fichiers de cartographie de code source sont des outils de débogage qui font le lien entre le code minifié de production et le source original lisible ModemGuides... ils n'ont absolument rien à faire dans un paquet destiné au public.

512 000 lignes de code. 1 906 fichiers TypeScript. 44 drapeaux de fonctionnalités cachées. Un animal de compagnie virtuel façon Tamagotchi. Et une question qui a traversé toute la communauté technique : comment Anthropic, une entreprise valorisée à plusieurs dizaines de milliards de dollars et qui construit l'un des outils d'IA les plus utilisés au monde, a-t-elle pu laisser passer ça ?

La réponse technique est triviale : Claude Code est construit sur Bun, que Anthropic a acquis fin 2025. Bun génère des source maps par défaut. Quelqu'un dans l'équipe de release n'a pas ajouté *.map au fichier .npmignore, ni configuré le champ files dans package.json pour exclure les artefacts de débogage. Autrement dit, une seule ligne de configuration manquante a suffi à exposer l'intégralité des entrailles du produit phare d'Anthropic.

L'entreprise a confirmé l'incident le 31 mars 2026, attribuant la fuite à une erreur humaine dans le processus d'empaquetage de la version. En quelques heures, des dizaines de miroirs ont fleuri sur GitHub, certains accumulant des dizaines de milliers d'étoiles avant que les premières demandes de retrait pour violation de copyright ne tombent.


L'anti-distillation : empoisonner les concurrents

Parmi les premières découvertes qui ont fait réagir la communauté Hacker News, on trouve un mécanisme baptisé ANTI_DISTILLATION_CC. Quand ce drapeau est activé, Claude Code envoie anti_distillation: ['fake_tools'] dans ses requêtes API. Cela indique au serveur d'injecter silencieusement de fausses définitions d'outils dans le prompt système. L'idée : si quelqu'un enregistre le trafic API de Claude Code pour entraîner un modèle concurrent, les faux outils viennent polluer ces données d'entraînement.

Ce mécanisme est conditionné à quatre critères simultanés : un drapeau de compilation, l'utilisation du point d'entrée CLI, un fournisseur d'API propriétaire Anthropic, et l'activation d'un drapeau GrowthBook côté serveur. Un proxy MITM qui supprimerait simplement le champ anti_distillation des corps de requêtes avant qu'ils atteignent l'API le contournerait entièrement. N'importe qui de sérieux dans l'intention de distiller les données de Claude Code trouverait les contournements en une heure de lecture du code source. La protection est donc plus symbolique que technique et ses vrais effets dissuasifs sont probablement d'ordre juridique.

Un second mécanisme, cette fois réservé aux employés Anthropic, permet de ne renvoyer au client que des résumés des raisonnements intermédiaires, accompagnés de signatures cryptographiques permettant de les reconstruire côté serveur. Là encore, seule une organisation particulièrement motivée et dotée de ressources importantes pourrait en tirer profit.


« L'undercover mode » : Claude se fait passer pour un humain

C'est sans doute la découverte la plus commentée, et la plus inconfortable. Le fichier undercover.ts, une centaine de lignes, implémente un mode qui entre en action lorsque des employés Anthropic utilisent Claude Code sur des dépôts publics ou open source. Le prompt injecté est explicite : « Vous opérez EN COUVERTURE dans un dépôt PUBLIC/OPEN-SOURCE. Vos messages de commit, titres de PR et descriptions de PR NE DOIVENT CONTENIR AUCUNE information interne à Anthropic. Ne révélez pas votre couverture. »

La liste des choses à ne jamais mentionner est éloquente : les noms de code internes des modèles (noms d'animaux comme Capybara, Tengu, etc.), les numéros de versions non publiées, les noms de dépôts ou projets internes, les outils internes, les canaux Slack, la phrase « Claude Code » ou toute mention que l'auteur est une IA, et les lignes Co-Authored-By ou toute autre attribution.

Il existe une option pour forcer l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 04/04/2026 à 12:47
à toutes et tous,

Toute cette histoire démontre que tout ce qui "touche" à l'IA est très fragile.

  • C'est fragile pour les investisseurs, car en quelques jours, une IA sortant de nulle part peut rendre "caduque" d'autres IA, et les investissements qui vont avec.
  • C'est fragile car pour pouvoir faire faire la moindre chose à une IA, il semble évident que pour l'instant, la fiabilité est assez loin d'être au top.
  • C'est fragile, car d'autres IA peuvent maintenant "réécrire/transformer" n'importe quoi. Une simple "fuite", et le business d'une entreprise peut s'écrouler à cause de simple erreurs.
  • C'est fragile, car si c'est une IA qui produit le code d'une IA, ce code est semble-t-il difficilement maintenable, posant des questions sur l'évolution du produit IA.
  • C'est fragile, car dans cette course à l'IA, il semble que la "qualité" et la "sécurité" ne soient pas une priorité.
  • C'est fragile. Dans le cas d'Anthropic, l'utilisation de "Typescript" comme langage de développement pose question.
  • C'est fragile, car l'IA repose sur le "Cloud", lui-même étant "fragile", les multiples "leaks" et "fuites" sont loin d'être "rares".
  • C'est fragile car, vu de l'extérieur, l'utilisation "d'agents" se limitant à une fonctionnalité, est à la base un bon principe, mais l'interconnexion de ces différents "agents" (que l'on veut 'autonome de surcroît) semble difficilement maîtrisable ou même compréhensible par un humain.
  • C'est "fragile" car lorsque l'on retrouve dans une "base de code" des fichiers de milliers de lignes de "code", des fonctions avec 25 niveau d'indentation, c'est assez déreangeant.
  • C'est fragile car cela propage de mauvaises "pratiques", dont le "vide-coding", qui fait croire que n'importe qui peut "programmer" n'importe quoi n'importe comment. On va vers du "code kleenex", qui n'a de la "valeur" qu'un court instant. Peut-être qu'une future "fuite" laissera "sortir" le code de la suite Office de MS (c'est un exemple), qui pourrait en quelque jours être récupéré et transcripté sans possibilité de garder une quelconque "parternité" revendiquée sur ce "nouveau code".


C'est "fragile", car au final, tout repose sur une confiance dans une "technologie" assez "opaque" , ressemblant plus à un château de carte qu'à un développement maîtrisé... Pour l'instant, j'ai perso l'impression que l'IA détruit plus de "valeurs" qu'elle n'en crée réellement, fiablemment, pérennement.

Ce n'est que mon petit avis de petit développeur.

BàV et Peace & Love.
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 08/04/2026 à 10:17
à toutes et tous,

Il me semble qu'il est plus difficile de maîtriser une IA qu'un développement classique. Ces compétences sont différentes, mais le soucis vient du fait que ces IA sont utilisées par des personnes n'ayant que peu d'expérience dans le développement (voir pas du tout), mais qui (en plus), n'ont pas la moindre culture du risque des outils qu'ils utilisent aveuglément, par facilité, pour la rapidité, et la sécurité n'est absolument pas prise en compte, c'est un point négatif de plus pour l'IA, qui commence a montrer ses limites, et des compromis qu'elle doit faire sans cesse. De plus, si j'ai bien compris l'article, l'implémentation et l'utilisation des IA, basée sur des jetons, vendu à perte, deviendra intenable si l'IA continue de se développer tel qu'actuellement.

Ce n'est que mon petit avis de petit développeur.
BàV et Peace & Love.
2  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/04/2026 à 14:39
Citation Envoyé par Ryu2000 Voir le message
C'est normal, les outils IA sont loin d'avoir atteint le stade auquel ils seront fiable et performant.
C'est un accès anticipé (early access) quelque part. OpenAI dit que si il peut dépenser des centaines de milliards chaque année, alors peut-être qu'à partir de 2030 ChatGPT sera rentable (pour être rentable il faut beaucoup d'utilisateurs payants, pour avoir des utilisateurs payants il faut proposer un outil de qualité, donc OpenAI fera un travail de qualité en 2030 (dans le meilleur scénario possible)).
Nous n'avons pas a être des bêta testeurs pour OpenIA. Qu'ils mettent leur brol au point avant de déstabiliser toute une fillière.

Citation Envoyé par Ryu2000 Voir le message
De mon point de vue, si l'erreur vient de Claude c'est beaucoup moins grave que si l'erreur est humaine. Claude est en version alpha, c'est normal que des erreurs aient lieux... (tous les chatbots IA sont en version alpha selon comment on regarde (en tout cas ils produisent plein d'erreurs))
Pareil, il faut en finir avec des produits sortant étant non fiables, dangereux, et en bêta tests permanent.

Citation Envoyé par Ryu2000 Voir le message
Alors que les humains qui sont embauchés sont censés être des "talents", donc ils doivent connaître les règles de sécurité. À un moment donné il y a une histoire d'un fichier de débogage .map qui s'est retrouvé sur un dépôt Git (en gros).
Quelque soit ton "talent", si tu n'est pas au courant de comment fonctionne une IA (et ils gardent jalousement leurs secrets), tu n'as pas les moyens de vérifier des choses dont tu n'est même pas au courant, par opacité, faute de documentation, etc... Tu ne va pas monter dans une voiture révolutionnaire à 3 roues et sans volant quand même ?

Citation Envoyé par Ryu2000 Voir le message
Bon après ils disent que c'est lié au logiciel Bun (alternative à Node.js) si un fichier .map s'est retrouvé dans la distribution publique. Mais Anthropic dit que c'est une erreur humaine, donc ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre.
On ne peut plus se fier à ce que disent ce genre de grosses boîtes, elles ont menti et trop souvent que pour les croire sur parole. La confiance n'est plus là. Dans le cas d'Anthropic, sur quoi te bases-tu pour dire "ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre." ? Tu as des sources ?

Citation Envoyé par Ryu2000 Voir le message
Les chatbots IA seront nuls en 2026, 2027, 2028, 2029, mais peut-être qu'après... Ou alors plusieurs centaines de milliards auront été dépensés pour rien. On verra...
Et bien laissons-les terminer leur produit, encore une fois, je ne suis pas payer pour être un bêta testeur.

BàT et Peace & Love.
1  0 
Avatar de v0bit
Nouveau Candidat au Club https://www.developpez.com
Le 03/04/2026 à 12:57
Tellement drôle. Evidemment que c'est une erreur de Claude, c'est lui qui code tout. Il aurait du penser à le rajouter dans le .gitignore.
Après, ils pourront toujours se défendre et dire que c'était une erreur humaine que de ne pas le remarquer, mais c'est un très bon exemple de ce qui peut arriver quand on a plus la maîtrise technique derrière les technos qu'on utilise.

Personnellement, je ne savais pas non plus que les source maps contenaient le code, et donc j'aurais vérifié ce que ça contenait avant de l'ajouter au Git public...
0  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 10/04/2026 à 9:30
Je crois bien que le plus drôle dans tout ça, c'est que la faille a été découverte par une autre IA et non par Mythos, qu'Anthropic dit beaucoup trop efficicace pour être commercialisé.
Pas si efficace que ça, apparemment

Anthropic annonce qu'il ne commercialiserait pas son dernier modèle, Mythos, car celui-ci s'avère trop efficace
0  0 
Avatar de Ryu2000
Inactif https://www.developpez.com
Le 10/04/2026 à 22:21
Citation Envoyé par OuftiBoy Voir le message
Nous n'avons pas a être des bêta testeurs pour OpenIA. Qu'ils mettent leur brol au point avant de déstabiliser toute une fillière.
Personne n'est obligé d'utiliser des outils IA.
Que tu soit une entreprise ou un particulier.

Ceux qui décident de l'utiliser savent que ça produit parfois des choses fausses.

Citation Envoyé par OuftiBoy Voir le message
il faut en finir avec des produits sortant étant non fiables, dangereux, et en bêta tests permanent.
Vous pouvez attendre que ce soit au point.
Les plus optimistes parlent de 2030.

Citation Envoyé par OuftiBoy Voir le message
Quelque soit ton "talent", si tu n'est pas au courant de comment fonctionne une IA
Officiellement c'est une erreur humaine.
Donc ça doit être un "talent" qui a fait de la merde et pas l'IA.

Bon après Anthropic peut mentir...
0  1 
Avatar de Ryu2000
Inactif https://www.developpez.com
Le 08/04/2026 à 11:15
Citation Envoyé par OuftiBoy Voir le message
Pour l'instant, j'ai perso l'impression que l'IA détruit plus de "valeurs" qu'elle n'en crée réellement, fiablemment, pérennement.
C'est normal, les outils IA sont loin d'avoir atteint le stade auquel ils seront fiable et performant.
C'est un accès anticipé (early access) quelque part.

OpenAI dit que si il peut dépenser des centaines de milliards chaque année, alors peut-être qu'à partir de 2030 ChatGPT sera rentable (pour être rentable il faut beaucoup d'utilisateurs payants, pour avoir des utilisateurs payants il faut proposer un outil de qualité, donc OpenAI fera un travail de qualité en 2030 (dans le meilleur scénario possible)).

Citation Envoyé par v0bit Voir le message
Evidemment que c'est une erreur de Claude, c'est lui qui code tout.
De mon point de vue, si l'erreur vient de Claude c'est beaucoup moins grave que si l'erreur est humaine.
Claude est en version alpha, c'est normal que des erreurs aient lieux... (tous les chatbots IA sont en version alpha selon comment on regarde (en tout cas ils produisent plein d'erreurs))

Alors que les humains qui sont embauchés sont censés être des "talents", donc ils doivent connaître les règles de sécurité.
À un moment donné il y a une histoire d'un fichier de débogage .map qui s'est retrouvé sur un dépôt Git (en gros).

Bon après ils disent que c'est lié au logiciel Bun (alternative à Node.js) si un fichier .map s'est retrouvé dans la distribution publique.
Mais Anthropic dit que c'est une erreur humaine, donc ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre.

=====
Citation Envoyé par OuftiBoy Voir le message
tout ce qui "touche" à l'IA est très fragile.
En attendant, actuellement beaucoup d'investisseurs (fonds institutionnels et hedge funds) cherchent à vendre leurs titres OpenAI pour acheter des actions Anthropic à la place.
Ils n'arrivent pas à vendre leurs titre OpenAI, mais si ils y arrivaient ils investiraient dans Anthropic.

OpenAI shares struggle to find buyers as investors shift to Anthropic
OpenAI shares are facing declining demand on secondary markets as investors redirect their focus toward competitor Anthropic, according to a report Wednesday from Bloomberg News.
Ces histoires de fuites ne dérangent absolument pas les fonds institutionnels et les hedge funds.
Le fait que la qualité des réponse baisse ne les dérange pas non plus. (ils font un paris à long terme)

Les chatbots IA seront nuls en 2026, 2027, 2028, 2029, mais peut-être qu'après...
Ou alors plusieurs centaines de milliards auront été dépensés pour rien. On verra...
0  5