Anthropic émet des demandes de retrait pour violation du droit d'auteur afin de supprimer plus de 8 000 copies du code source de Claude Code, une fuite qu'Anthropic impute à une erreur humaine de ses employésAnthropic s'efforce de contenir la fuite des instructions internes qui sous-tendent Claude Code, son assistant de codage IA très populaire. Selon un article du Wall Street Journal, l'entreprise a réussi à faire retirer de force 8 000 copies du code en recourant à une demande de retrait pour violation du droit d'auteur. Cette fuite est le résultat d'une erreur humaine qui pourrait coûter cher à l'entreprise.
Anthropic PBC est une entreprise américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des activités de recherche et de développement en IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et d'utiliser ces recherches pour déployer des modèles sûrs destinés au grand public.
Fin mars 2026, le code source de Claude Code a fait l'objet d'une fuite, révélant de nombreuses fonctionnalités et modèles à venir. Tout a commencé dans la nuit du 31 mars 2026. Un ingénieur d'Anthropic pousse une mise à jour de routine du paquet npm de Claude Code. Dans l'archive publiée se glisse un fichier source map ; un artefact de débogage de 59,8 mégaoctets dont la vocation première est de relier le code minifié et obfusqué à son code source original, pour faciliter l'identification des bogues en développement. En production, ce type de fichier n'a rien à faire dans un paquet distribué publiquement. L'erreur de configuration a rendu publiques plus de 512 000 lignes de TypeScript constituant le cœur de Claude Code.
En réponse, Anthropic a confirmé qu'une erreur humaine était à l'origine de la fuite du code source de son agent IA, Claude Code, qui a fait perdre des milliards aux marchés boursiers mondiaux. L'entreprise a qualifié cet incident d'erreur de publication plutôt que de faille de sécurité. La start-up spécialisée dans l'IA a révélé qu'un problème de packaging avait involontairement exposé une partie de son code interne.
Anthropic s'efforce de contenir la fuite des instructions internes qui sous-tendent Claude Code, son assistant de codage IA très populaire. Selon un article du Wall Street Journal, l'entreprise a réussi à faire retirer de force 8 000 copies du code en recourant à une demande de retrait pour violation du droit d'auteur. Cette fuite est le résultat d'une erreur qui pourrait coûter cher à l'entreprise. Lors du déploiement d'une mise à jour de Claude Code, Anthropic a publié par erreur sur GitHub un fichier renvoyant directement au code source sous-jacent de l'outil – des instructions qui sont normalement masquées pour empêcher tout accès extérieur.
Un utilisateur de X (anciennement Twitter) a repéré le fichier exposé presque immédiatement et a relayé l'information sur la plateforme. En quelques heures, les copies se sont multipliées sur GitHub et Anthropic s'est empressée de préciser l'étendue des dégâts. La société a ensuite confirmé que la fuite n'avait exposé aucune donnée client ni aucune information personnelle. Surtout, elle n’a pas non plus révélé les poids du modèle d’IA et a imputé l’erreur à une « erreur humaine ».
Cependant, les données divulguées ont fasciné les développeurs, qui ont pu découvrir comment les ingénieurs d’Anthropic travaillent pour permettre à leurs systèmes d’IA de fonctionner. Parmi les découvertes qui ont fait le plus de bruit en ligne :
- Dreaming : une fonctionnalité qui demande périodiquement à Claude Code de faire une pause, de passer en revue ses tâches précédentes et de consolider ses souvenirs.
- Sous couverture : des instructions qui semblent demander à Claude Code, dans certaines situations, de dissimuler le fait qu’il s’agit d’une IA lorsqu’il publie du code sur des plateformes comme GitHub.
- Indices sur les futurs produits : les développeurs ont trouvé dans le code des balises qui semblent indiquer des lancements de produits non annoncés, suscitant immédiatement des spéculations sur ce qu’Anthropic prépare.
- Buddy : enfoui dans le code se trouvait un animal de compagnie virtuel de type Tamagotchi nommé Buddy avec lequel les utilisateurs pouvaient apparemment interagir.
La fuite a exposé environ 2 200 fichiers et 30 Mo de TypeScript. Selon les ingénieurs qui ont épluché le code, c'est au moins la troisième fois qu'Anthropic commet exactement la même erreur. Cela intervient alors que des rapports indiquent qu'Anthropic envisage une introduction en bourse de 380 milliards de dollars plus tard cette année. Bloomberg a rapporté qu'Anthropic était en pourparlers préliminaires avec Goldman Sachs, JPMorgan et Morgan Stanley au sujet d'une éventuelle introduction en bourse en octobre. La société a déjà secoué les marchés cette année : ses mises à jour de sécurité concernant Cowork et Claude Code ont fait perdre des milliards aux actions des secteurs des logiciels et de la cybersécurité en l'espace de quelques semaines.
Cette divulgation fait suite à un autre incident au cours duquel des documents internes, notamment les plans de l’entreprise concernant un futur modèle d’IA, ont été découverts dans un cache de données accessible au public. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement. Un porte-parole d'Anthropic, s'exprimant au sujet du nouveau modèle, a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. » Cet incident a braqué les projecteurs sur les pratiques internes de l’entreprise.
Source : WSJ
Et vous ?
Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?Voir aussi :
Anthropic expose accidentellement 512 000 lignes du code source de Claude Code : la feuille de route secrète d'une IA à 380 milliards de dollars est désormais publique
Anthropic accuse DeepSeek et d'autres laboratoires chinois d'IA d'utiliser Claude pour extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles à l'aide de 24 000 comptes frauduleux
OpenClaw : comment un agent IA « vibe-codé » en quelques semaines a exposé 135 000 machines à internet et redéfini la notion de catastrophe sécuritaire en 2026
Vous avez lu gratuitement 2 414 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
à toutes et tous,
