IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic émet des demandes de retrait pour violation du droit d'auteur afin de supprimer plus de 8 000 copies du code source de Claude Code, une fuite qu'Anthropic impute à une erreur humaine de ses employés

Le , par Alex

12PARTAGES

5  0 
Anthropic émet des demandes de retrait pour violation du droit d'auteur afin de supprimer plus de 8 000 copies du code source de Claude Code, une fuite qu'Anthropic impute à une erreur humaine de ses employés

Anthropic s'efforce de contenir la fuite des instructions internes qui sous-tendent Claude Code, son assistant de codage IA très populaire. Selon un article du Wall Street Journal, l'entreprise a réussi à faire retirer de force 8 000 copies du code en recourant à une demande de retrait pour violation du droit d'auteur. Cette fuite est le résultat d'une erreur humaine qui pourrait coûter cher à l'entreprise.

Anthropic PBC est une entreprise américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des activités de recherche et de développement en IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et d'utiliser ces recherches pour déployer des modèles sûrs destinés au grand public.

Fin mars 2026, le code source de Claude Code a fait l'objet d'une fuite, révélant de nombreuses fonctionnalités et modèles à venir. Tout a commencé dans la nuit du 31 mars 2026. Un ingénieur d'Anthropic pousse une mise à jour de routine du paquet npm de Claude Code. Dans l'archive publiée se glisse un fichier source map ; un artefact de débogage de 59,8 mégaoctets dont la vocation première est de relier le code minifié et obfusqué à son code source original, pour faciliter l'identification des bogues en développement. En production, ce type de fichier n'a rien à faire dans un paquet distribué publiquement. L'erreur de configuration a rendu publiques plus de 512 000 lignes de TypeScript constituant le cœur de Claude Code.

En réponse, Anthropic a confirmé qu'une erreur humaine était à l'origine de la fuite du code source de son agent IA, Claude Code, qui a fait perdre des milliards aux marchés boursiers mondiaux. L'entreprise a qualifié cet incident d'erreur de publication plutôt que de faille de sécurité. La start-up spécialisée dans l'IA a révélé qu'un problème de packaging avait involontairement exposé une partie de son code interne.

Anthropic s'efforce de contenir la fuite des instructions internes qui sous-tendent Claude Code, son assistant de codage IA très populaire. Selon un article du Wall Street Journal, l'entreprise a réussi à faire retirer de force 8 000 copies du code en recourant à une demande de retrait pour violation du droit d'auteur. Cette fuite est le résultat d'une erreur qui pourrait coûter cher à l'entreprise. Lors du déploiement d'une mise à jour de Claude Code, Anthropic a publié par erreur sur GitHub un fichier renvoyant directement au code source sous-jacent de l'outil – des instructions qui sont normalement masquées pour empêcher tout accès extérieur.


Un utilisateur de X (anciennement Twitter) a repéré le fichier exposé presque immédiatement et a relayé l'information sur la plateforme. En quelques heures, les copies se sont multipliées sur GitHub et Anthropic s'est empressée de préciser l'étendue des dégâts. La société a ensuite confirmé que la fuite n'avait exposé aucune donnée client ni aucune information personnelle. Surtout, elle n’a pas non plus révélé les poids du modèle d’IA et a imputé l’erreur à une « erreur humaine ».

Cependant, les données divulguées ont fasciné les développeurs, qui ont pu découvrir comment les ingénieurs d’Anthropic travaillent pour permettre à leurs systèmes d’IA de fonctionner. Parmi les découvertes qui ont fait le plus de bruit en ligne :

- Dreaming : une fonctionnalité qui demande périodiquement à Claude Code de faire une pause, de passer en revue ses tâches précédentes et de consolider ses souvenirs.
- Sous couverture : des instructions qui semblent demander à Claude Code, dans certaines situations, de dissimuler le fait qu’il s’agit d’une IA lorsqu’il publie du code sur des plateformes comme GitHub.
- Indices sur les futurs produits : les développeurs ont trouvé dans le code des balises qui semblent indiquer des lancements de produits non annoncés, suscitant immédiatement des spéculations sur ce qu’Anthropic prépare.
- Buddy : enfoui dans le code se trouvait un animal de compagnie virtuel de type Tamagotchi nommé Buddy avec lequel les utilisateurs pouvaient apparemment interagir.

La fuite a exposé environ 2 200 fichiers et 30 Mo de TypeScript. Selon les ingénieurs qui ont épluché le code, c'est au moins la troisième fois qu'Anthropic commet exactement la même erreur. Cela intervient alors que des rapports indiquent qu'Anthropic envisage une introduction en bourse de 380 milliards de dollars plus tard cette année. Bloomberg a rapporté qu'Anthropic était en pourparlers préliminaires avec Goldman Sachs, JPMorgan et Morgan Stanley au sujet d'une éventuelle introduction en bourse en octobre. La société a déjà secoué les marchés cette année : ses mises à jour de sécurité concernant Cowork et Claude Code ont fait perdre des milliards aux actions des secteurs des logiciels et de la cybersécurité en l'espace de quelques semaines.

Cette divulgation fait suite à un autre incident au cours duquel des documents internes, notamment les plans de l’entreprise concernant un futur modèle d’IA, ont été découverts dans un cache de données accessible au public. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement. Un porte-parole d'Anthropic, s'exprimant au sujet du nouveau modèle, a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. » Cet incident a braqué les projecteurs sur les pratiques internes de l’entreprise.

Source : WSJ

Et vous ?

Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Anthropic expose accidentellement 512 000 lignes du code source de Claude Code : la feuille de route secrète d'une IA à 380 milliards de dollars est désormais publique

Anthropic accuse DeepSeek et d'autres laboratoires chinois d'IA d'utiliser Claude pour extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles à l'aide de 24 000 comptes frauduleux

OpenClaw : comment un agent IA « vibe-codé » en quelques semaines a exposé 135 000 machines à internet et redéfini la notion de catastrophe sécuritaire en 2026
Vous avez lu gratuitement 2 414 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 02/04/2026 à 14:09
à toutes et tous,

Citation Envoyé par Alex Voir le message
Anthropic émet des demandes de retrait pour violation du droit d'auteur afin de supprimer plus de 8 000 copies du code source de Claude Code, une fuite qu'Anthropic impute à une erreur humaine de ses employés

Quel est votre avis sur le sujet ?
Exactement le même que lorsque l'ami Sam défendait le droit à la propriété intellectuel pour son business IA, tout en trouvant normal d'avoir violé ce même droit d'auteur pour instruire son IA, en donnant comme raison qu'il n'était pas possible d'avancer sans cela. Anthropic fait ici exactement la même choses... Après s'être assis sur le droit d'auteur, ils veulent qu'on l'applique pour eux.

Que je sache, ces informations, cette fuite, n'est pas le résultat d'un vol. C'est eux qui ont rendu ces documents public. Attaquer ensuite ceux et celles qui ont récupéré ces documents publiés, sous peine d'ennuis (c'est le moins que l'on puisse dire) avec la justice, c'est l'hôpital qui se fout de la charité.

Où est la justice dans cette affaire ? Si je mets sur le trottoir, même par erreur, un frigo tout neuf au lieu du vieux frigo dont je voulais me débarrasser, pourrais-je attaquer en justice celui qui l'aura récupéré ? Je ne pense pas. Deux poids, deux mesures. Si ceux qui ont récupéré ces documents avancent le même argument que ces sociétés, disant qu'il n'était pas possible d'avancer sans cela, je ne pense pas qu'on leur donnera raison...

On va me dire que ce sujet, c'est du passé, que cela a été réglé, admis ou accepté. Mais je reste sur ma position. Si moi je commet un vol, et qu'on me rattrape deux ans plus tard, je ne pourrais pas me défendre en disant que c'est du passé...

Ce n'est que mon avis, chacun à le sien et c'est très bien ainsi.

BàV et Peace & Love.
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 04/04/2026 à 12:47
à toutes et tous,

Toute cette histoire démontre que tout ce qui "touche" à l'IA est très fragile.

  • C'est fragile pour les investisseurs, car en quelques jours, une IA sortant de nulle part peut rendre "caduque" d'autres IA, et les investissements qui vont avec.
  • C'est fragile car pour pouvoir faire faire la moindre chose à une IA, il semble évident que pour l'instant, la fiabilité est assez loin d'être au top.
  • C'est fragile, car d'autres IA peuvent maintenant "réécrire/transformer" n'importe quoi. Une simple "fuite", et le business d'une entreprise peut s'écrouler à cause de simple erreurs.
  • C'est fragile, car si c'est une IA qui produit le code d'une IA, ce code est semble-t-il difficilement maintenable, posant des questions sur l'évolution du produit IA.
  • C'est fragile, car dans cette course à l'IA, il semble que la "qualité" et la "sécurité" ne soient pas une priorité.
  • C'est fragile. Dans le cas d'Anthropic, l'utilisation de "Typescript" comme langage de développement pose question.
  • C'est fragile, car l'IA repose sur le "Cloud", lui-même étant "fragile", les multiples "leaks" et "fuites" sont loin d'être "rares".
  • C'est fragile car, vu de l'extérieur, l'utilisation "d'agents" se limitant à une fonctionnalité, est à la base un bon principe, mais l'interconnexion de ces différents "agents" (que l'on veut 'autonome de surcroît) semble difficilement maîtrisable ou même compréhensible par un humain.
  • C'est "fragile" car lorsque l'on retrouve dans une "base de code" des fichiers de milliers de lignes de "code", des fonctions avec 25 niveau d'indentation, c'est assez déreangeant.
  • C'est fragile car cela propage de mauvaises "pratiques", dont le "vide-coding", qui fait croire que n'importe qui peut "programmer" n'importe quoi n'importe comment. On va vers du "code kleenex", qui n'a de la "valeur" qu'un court instant. Peut-être qu'une future "fuite" laissera "sortir" le code de la suite Office de MS (c'est un exemple), qui pourrait en quelque jours être récupéré et transcripté sans possibilité de garder une quelconque "parternité" revendiquée sur ce "nouveau code".


C'est "fragile", car au final, tout repose sur une confiance dans une "technologie" assez "opaque" , ressemblant plus à un château de carte qu'à un développement maîtrisé... Pour l'instant, j'ai perso l'impression que l'IA détruit plus de "valeurs" qu'elle n'en crée réellement, fiablemment, pérennement.

Ce n'est que mon petit avis de petit développeur.

BàV et Peace & Love.
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 08/04/2026 à 10:17
à toutes et tous,

Il me semble qu'il est plus difficile de maîtriser une IA qu'un développement classique. Ces compétences sont différentes, mais le soucis vient du fait que ces IA sont utilisées par des personnes n'ayant que peu d'expérience dans le développement (voir pas du tout), mais qui (en plus), n'ont pas la moindre culture du risque des outils qu'ils utilisent aveuglément, par facilité, pour la rapidité, et la sécurité n'est absolument pas prise en compte, c'est un point négatif de plus pour l'IA, qui commence a montrer ses limites, et des compromis qu'elle doit faire sans cesse. De plus, si j'ai bien compris l'article, l'implémentation et l'utilisation des IA, basée sur des jetons, vendu à perte, deviendra intenable si l'IA continue de se développer tel qu'actuellement.

Ce n'est que mon petit avis de petit développeur.
BàV et Peace & Love.
2  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/04/2026 à 14:39
Citation Envoyé par Ryu2000 Voir le message
C'est normal, les outils IA sont loin d'avoir atteint le stade auquel ils seront fiable et performant.
C'est un accès anticipé (early access) quelque part. OpenAI dit que si il peut dépenser des centaines de milliards chaque année, alors peut-être qu'à partir de 2030 ChatGPT sera rentable (pour être rentable il faut beaucoup d'utilisateurs payants, pour avoir des utilisateurs payants il faut proposer un outil de qualité, donc OpenAI fera un travail de qualité en 2030 (dans le meilleur scénario possible)).
Nous n'avons pas a être des bêta testeurs pour OpenIA. Qu'ils mettent leur brol au point avant de déstabiliser toute une fillière.

Citation Envoyé par Ryu2000 Voir le message
De mon point de vue, si l'erreur vient de Claude c'est beaucoup moins grave que si l'erreur est humaine. Claude est en version alpha, c'est normal que des erreurs aient lieux... (tous les chatbots IA sont en version alpha selon comment on regarde (en tout cas ils produisent plein d'erreurs))
Pareil, il faut en finir avec des produits sortant étant non fiables, dangereux, et en bêta tests permanent.

Citation Envoyé par Ryu2000 Voir le message
Alors que les humains qui sont embauchés sont censés être des "talents", donc ils doivent connaître les règles de sécurité. À un moment donné il y a une histoire d'un fichier de débogage .map qui s'est retrouvé sur un dépôt Git (en gros).
Quelque soit ton "talent", si tu n'est pas au courant de comment fonctionne une IA (et ils gardent jalousement leurs secrets), tu n'as pas les moyens de vérifier des choses dont tu n'est même pas au courant, par opacité, faute de documentation, etc... Tu ne va pas monter dans une voiture révolutionnaire à 3 roues et sans volant quand même ?

Citation Envoyé par Ryu2000 Voir le message
Bon après ils disent que c'est lié au logiciel Bun (alternative à Node.js) si un fichier .map s'est retrouvé dans la distribution publique. Mais Anthropic dit que c'est une erreur humaine, donc ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre.
On ne peut plus se fier à ce que disent ce genre de grosses boîtes, elles ont menti et trop souvent que pour les croire sur parole. La confiance n'est plus là. Dans le cas d'Anthropic, sur quoi te bases-tu pour dire "ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre." ? Tu as des sources ?

Citation Envoyé par Ryu2000 Voir le message
Les chatbots IA seront nuls en 2026, 2027, 2028, 2029, mais peut-être qu'après... Ou alors plusieurs centaines de milliards auront été dépensés pour rien. On verra...
Et bien laissons-les terminer leur produit, encore une fois, je ne suis pas payer pour être un bêta testeur.

BàT et Peace & Love.
1  0 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 02/04/2026 à 18:32
8001, j’en ai fait une copie
0  0 
Avatar de v0bit
Nouveau Candidat au Club https://www.developpez.com
Le 03/04/2026 à 12:57
Tellement drôle. Evidemment que c'est une erreur de Claude, c'est lui qui code tout. Il aurait du penser à le rajouter dans le .gitignore.
Après, ils pourront toujours se défendre et dire que c'était une erreur humaine que de ne pas le remarquer, mais c'est un très bon exemple de ce qui peut arriver quand on a plus la maîtrise technique derrière les technos qu'on utilise.

Personnellement, je ne savais pas non plus que les source maps contenaient le code, et donc j'aurais vérifié ce que ça contenait avant de l'ajouter au Git public...
0  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 10/04/2026 à 9:30
Je crois bien que le plus drôle dans tout ça, c'est que la faille a été découverte par une autre IA et non par Mythos, qu'Anthropic dit beaucoup trop efficicace pour être commercialisé.
Pas si efficace que ça, apparemment

Anthropic annonce qu'il ne commercialiserait pas son dernier modèle, Mythos, car celui-ci s'avère trop efficace
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/04/2026 à 19:44
Citation Envoyé par der§en Voir le message
8001
Le code qui a fuité est préservé pour l'éternité.
Il va être copié, copié et re-copié derrière.
Il doit être plusieurs fois sur GitHub, il doit être en Torrent, il doit être sur eMule, Google Share et tout ce qui existe.

Anthropic a envoyé plus de 8 100 demandes de takedown DMCA à GitHub. Donc le code doit pas mal circuler.
Il y a des forks de tous les côtés. Ça ne va pas durer mais ça laissera des traces. Des gens auront le code sur leur PC.
0  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 10/04/2026 à 22:21
Citation Envoyé par OuftiBoy Voir le message
Nous n'avons pas a être des bêta testeurs pour OpenIA. Qu'ils mettent leur brol au point avant de déstabiliser toute une fillière.
Personne n'est obligé d'utiliser des outils IA.
Que tu soit une entreprise ou un particulier.

Ceux qui décident de l'utiliser savent que ça produit parfois des choses fausses.

Citation Envoyé par OuftiBoy Voir le message
il faut en finir avec des produits sortant étant non fiables, dangereux, et en bêta tests permanent.
Vous pouvez attendre que ce soit au point.
Les plus optimistes parlent de 2030.

Citation Envoyé par OuftiBoy Voir le message
Quelque soit ton "talent", si tu n'est pas au courant de comment fonctionne une IA
Officiellement c'est une erreur humaine.
Donc ça doit être un "talent" qui a fait de la merde et pas l'IA.

Bon après Anthropic peut mentir...
0  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/04/2026 à 15:22
Citation Envoyé par Alex Voir le message
Lors du déploiement d'une mise à jour de Claude Code, Anthropic a publié par erreur sur GitHub un fichier renvoyant directement au code source sous-jacent de l'outil – des instructions qui sont normalement masquées pour empêcher tout accès extérieur.
C'est marrant, ça rappelle un Meme avec une histoire de données sensibles en clair dans le code (du genre identifiant, mot de passe).
0  3