IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une faille critique dans Claude Code est apparue après la fuite du code source : Anthropic a d'abord divulgué le code source de Claude Code, puis une faille critique a été découverte par Adversa AI

Le , par Jade Emy

31PARTAGES

4  0 
Après la fuite du code source de Claude Code, une véritable vulnérabilité critique vient d’être découverte dans Claude Code même par l’équipe Red Team d'Adversa AI. Claude Code intègre un système d’autorisations basé sur des règles d’autorisation (approbation automatique de commandes spécifiques), des règles de refus (blocage strict de commandes spécifiques) et des règles de demande (invite systématique). Cela semble correct et raisonnable. Le problème, cependant, est que les règles de refus peuvent être contournées. « Règles de refus, validateurs de sécurité, détection d’injection de commandes — tout est ignoré », écrit Adversa. Adversa prévient qu’un attaquant motivé pourrait intégrer des étapes de compilation d’apparence authentique dans le fichier CLAUDE.md d’un dépôt malveillant.

Tout a commencé dans la nuit du 31 mars 2026. Un ingénieur d'Anthropic pousse une mise à jour de routine du paquet npm de Claude Code. Dans l'archive publiée se glisse un fichier source map ; un artefact de débogage de 59,8 mégaoctets dont la vocation première est de relier le code minifié et obfusqué à son code source original, pour faciliter l'identification des bogues en développement. En production, ce type de fichier n'a rien à faire dans un paquet distribué publiquement.

En quelques heures, l'erreur de configuration dans la pipeline de build a rendu publiques plus de 512 000 lignes de TypeScript constituant le cœur de Claude Code. Le chercheur en sécurité qui a découvert la fuite n'a eu qu'à suivre un lien dans un fichier de débogage pour accéder à l'intégralité du projet. Depuis, le dépôt GitHub de sauvegarde a été forké plus de 41 500 fois. La communauté des développeurs a désormais accès à la feuille de route d'une entreprise valorisée à 380 milliards de dollars.

C'est gênant, mais pas catastrophique pour Anthropic. L’essentiel est que les chercheurs peuvent voir comment Claude Code est censé fonctionner, mais ne peuvent pas le recréer, car la fuite n’inclut pas les poids du modèle Claude, les données d’entraînement, les données clients, les API ou les identifiants. Mais récemment, une véritable vulnérabilité critique vient d’être découverte dans Claude Code même par l’équipe Red Team d'Adversa AI.

Claude Code intègre un système d’autorisations basé sur des règles d’autorisation (approbation automatique de commandes spécifiques), des règles de refus (blocage strict de commandes spécifiques) et des règles de demande (invite systématique). Cela semble correct et raisonnable. Le problème, cependant, est que les règles de refus peuvent être contournées. « Le système d’autorisations constitue la principale barrière de sécurité entre l’agent IA et le système du développeur », rapporte Adversa. « Lorsqu’il échoue silencieusement, le développeur n’a aucun filet de sécurité. »

Le problème découle de la volonté d’Anthropic d’améliorer les performances après la découverte d’un problème de performance : des commandes composées complexes provoquaient le gel de l’interface utilisateur. Anthropic a résolu ce problème en limitant l'analyse à 50 sous-commandes, avec un repli vers une instruction générique « ask » pour tout le reste. Le commentaire du code indique : « Cinquante, c'est généreux : les commandes légitimes des utilisateurs ne s'étendent pas autant. Au-delà de cette limite, nous revenons à « ask » (valeur par défaut sûre — nous ne pouvons pas prouver la sécurité, donc nous demandons une confirmation). »

La faille découverte par Adversa réside dans le fait que ce processus peut être manipulé. L'hypothèse d'Anthropic ne tient pas compte des commandes générées par l'IA à partir d'une injection d'instruction générative (prompt), où un fichier CLAUDE.md malveillant ordonne à l'IA de générer un pipeline de plus de 50 sous-commandes qui ressemble à un processus de construction légitime. Si cela est fait, « comportement : « ask », // PAS « deny » » se produit immédiatement. « Règles de refus, validateurs de sécurité, détection d’injection de commandes — tout est ignoré », écrit Adversa. La 51e commande revient à « ask » comme prévu, mais l’utilisateur n’a aucune indication que toutes les règles de refus ont été ignorées.


Adversa prévient qu’un attaquant motivé pourrait intégrer des étapes de compilation d’apparence authentique dans le fichier CLAUDE.md d’un dépôt malveillant. Cela semblerait routinier, mais aucune analyse par sous-commande n’est effectuée lorsque le nombre dépasse 50. Cela pourrait permettre à l’attaquant d’exfiltrer des clés privées SSH, des identifiants AWS, des jetons GitHub, des jetons npm ou des secrets d’environnement. Cela pourrait conduire à un vol d’identifiants à grande échelle, à la compromission de la chaîne d’approvisionnement, à une violation de l’infrastructure cloud et à l’empoisonnement du pipeline CI/CD.

« Lors des tests, la couche de sécurité du LLM de Claude a détecté de manière autonome certaines charges utiles manifestement malveillantes et a refusé de les exécuter. Il s'agit là d'une bonne stratégie de défense en profondeur », écrit Adversa. « Cependant, la vulnérabilité du système d'autorisations existe indépendamment de la couche LLM : il s'agit d'un bug dans le code chargé d'appliquer la politique de sécurité. Une injection de prompt suffisamment bien conçue, qui apparaîtrait comme une instruction de compilation légitime, pourrait également contourner la couche LLM. »

L'incident, survenu le 31 mars 2026, révèle bien plus qu'une négligence de pipeline : il donne à voir, pour la première fois, l'architecture interne d'un agent de codage IA en production, ses fonctionnalités secrètes, ses mécanismes de protection et ses contradictions embarrassantes. Parmi les premières découvertes qui ont fait réagir la communauté, on trouve un mécanisme d'anti-distillation, « l'undercover mode » (Claude se fait passer pour un humain), ou encore KAIROS, l'agent autonome qui ne dort jamais. Cette fuite permet ainsi aux concurrents d'Anthropic d'anticiper.

Voici un extrait du rapport d'Adversa :

Vulnérabilité critique de Claude Code : les règles de refus sont contournées sans avertissement, car les contrôles de sécurité consomment trop de jetons

L'histoire en 60 secondes

En 1898, le cryptographe Auguste Kerckhoffs a établi un principe que tout professionnel de la sécurité apprend dès sa première semaine : un système doit rester sécurisé même si tous ses composants sont de notoriété publique. En 2026, Anthropic (le laboratoire de pointe en IA « sécurité d’abord », évalué à plusieurs milliards de dollars et qui se prépare actuellement à une introduction en bourse) a commercialisé un produit dont le modèle de sécurité s’effondre si l’on tape plus de 50 commandes à la suite.

- La vulnérabilité : Claude Code, l’agent de codage IA phare d’Anthropic qui exécute des commandes shell sur les machines des développeurs, ignore silencieusement les règles de refus de sécurité configurées par l’utilisateur lorsqu’une commande contient plus de 50 sous-commandes. Un développeur qui configure « ne jamais exécuter rm » verra rm bloqué lorsqu’il est exécuté seul, mais ce même rm s’exécute sans restriction s’il est précédé de 50 instructions inoffensives. La politique de sécurité disparaît silencieusement.

- Pourquoi cela existe : l’analyse de sécurité coûte des jetons. Les ingénieurs d’Anthropic ont rencontré un problème de performances : vérifier chaque sous-commande bloquait l’interface utilisateur et épuisait les ressources de calcul. Leur solution : arrêter la vérification après 50. Ils ont troqué la sécurité contre la vitesse. Ils ont troqué la sécurité contre le coût.

- Ce qui nous a choqués : la correction existe déjà dans le code source d’Anthropic. Leur nouveau parseur « tree-sitter » vérifie correctement les règles de refus, quelle que soit la longueur de la commande. Il est écrit. Il a été testé. Il se trouve dans le même référentiel. Il n’a jamais été appliqué au chemin de code livré aux clients. La version sécurisée a été construite ; elle n’a simplement pas été déployée.

- Pourquoi cela va au-delà d’un simple bug : c’est le principal compromis auquel l’ensemble du secteur des agents IA est sur le point d’être confronté. Dans l’IA agentique, l’application de la sécurité et la livraison du produit se disputent la même ressource : les jetons. Chaque vérification de règle de refus, chaque validation d'autorisation, chaque application des limites du bac à sable représente un coût d'inférence qui est prélevé sur le même budget que le travail de l'utilisateur. À l'heure actuelle, les jetons sont subventionnés par le capital-risque et les entreprises rognent déjà sur les coûts. Lorsque les subventions prendront fin et que chaque jeton sera soumis à une réelle pression sur les marges, l'incitation à ignorer les contrôles de sécurité s'aggravera, et non l'inverse. Anthropic vient de nous montrer à quoi ressemblera cet avenir.


La menace concrète : comment un dépôt malveillant vole vos identifiants

Il ne s’agit pas d’une vulnérabilité théorique. Le chemin d’attaque est pratique, réaliste et exploite un workflow que les développeurs effectuent des dizaines de fois par jour : cloner un dépôt open source et demander à leur assistant de codage IA de les aider à le construire.

Comment fonctionne l'attaque

- Étape 1 : L'attaquant crée un dépôt d'apparence légitime

L'attaquant publie ce qui semble être un outil open source, une bibliothèque ou un modèle de projet utile sur GitHub ou toute autre plateforme d'hébergement de code. Il comporte un fichier README, une licence, un nombre raisonnable d'étoiles (facilement achetées ou générées) et une structure de projet qui semble...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 08/04/2026 à 10:17
à toutes et tous,

Il me semble qu'il est plus difficile de maîtriser une IA qu'un développement classique. Ces compétences sont différentes, mais le soucis vient du fait que ces IA sont utilisées par des personnes n'ayant que peu d'expérience dans le développement (voir pas du tout), mais qui (en plus), n'ont pas la moindre culture du risque des outils qu'ils utilisent aveuglément, par facilité, pour la rapidité, et la sécurité n'est absolument pas prise en compte, c'est un point négatif de plus pour l'IA, qui commence a montrer ses limites, et des compromis qu'elle doit faire sans cesse. De plus, si j'ai bien compris l'article, l'implémentation et l'utilisation des IA, basée sur des jetons, vendu à perte, deviendra intenable si l'IA continue de se développer tel qu'actuellement.

Ce n'est que mon petit avis de petit développeur.
BàV et Peace & Love.
2  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/04/2026 à 14:39
Citation Envoyé par Ryu2000 Voir le message
C'est normal, les outils IA sont loin d'avoir atteint le stade auquel ils seront fiable et performant.
C'est un accès anticipé (early access) quelque part. OpenAI dit que si il peut dépenser des centaines de milliards chaque année, alors peut-être qu'à partir de 2030 ChatGPT sera rentable (pour être rentable il faut beaucoup d'utilisateurs payants, pour avoir des utilisateurs payants il faut proposer un outil de qualité, donc OpenAI fera un travail de qualité en 2030 (dans le meilleur scénario possible)).
Nous n'avons pas a être des bêta testeurs pour OpenIA. Qu'ils mettent leur brol au point avant de déstabiliser toute une fillière.

Citation Envoyé par Ryu2000 Voir le message
De mon point de vue, si l'erreur vient de Claude c'est beaucoup moins grave que si l'erreur est humaine. Claude est en version alpha, c'est normal que des erreurs aient lieux... (tous les chatbots IA sont en version alpha selon comment on regarde (en tout cas ils produisent plein d'erreurs))
Pareil, il faut en finir avec des produits sortant étant non fiables, dangereux, et en bêta tests permanent.

Citation Envoyé par Ryu2000 Voir le message
Alors que les humains qui sont embauchés sont censés être des "talents", donc ils doivent connaître les règles de sécurité. À un moment donné il y a une histoire d'un fichier de débogage .map qui s'est retrouvé sur un dépôt Git (en gros).
Quelque soit ton "talent", si tu n'est pas au courant de comment fonctionne une IA (et ils gardent jalousement leurs secrets), tu n'as pas les moyens de vérifier des choses dont tu n'est même pas au courant, par opacité, faute de documentation, etc... Tu ne va pas monter dans une voiture révolutionnaire à 3 roues et sans volant quand même ?

Citation Envoyé par Ryu2000 Voir le message
Bon après ils disent que c'est lié au logiciel Bun (alternative à Node.js) si un fichier .map s'est retrouvé dans la distribution publique. Mais Anthropic dit que c'est une erreur humaine, donc ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre.
On ne peut plus se fier à ce que disent ce genre de grosses boîtes, elles ont menti et trop souvent que pour les croire sur parole. La confiance n'est plus là. Dans le cas d'Anthropic, sur quoi te bases-tu pour dire "ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre." ? Tu as des sources ?

Citation Envoyé par Ryu2000 Voir le message
Les chatbots IA seront nuls en 2026, 2027, 2028, 2029, mais peut-être qu'après... Ou alors plusieurs centaines de milliards auront été dépensés pour rien. On verra...
Et bien laissons-les terminer leur produit, encore une fois, je ne suis pas payer pour être un bêta testeur.

BàT et Peace & Love.
1  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 10/04/2026 à 9:30
Je crois bien que le plus drôle dans tout ça, c'est que la faille a été découverte par une autre IA et non par Mythos, qu'Anthropic dit beaucoup trop efficicace pour être commercialisé.
Pas si efficace que ça, apparemment

Anthropic annonce qu'il ne commercialiserait pas son dernier modèle, Mythos, car celui-ci s'avère trop efficace
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 10/04/2026 à 22:21
Citation Envoyé par OuftiBoy Voir le message
Nous n'avons pas a être des bêta testeurs pour OpenIA. Qu'ils mettent leur brol au point avant de déstabiliser toute une fillière.
Personne n'est obligé d'utiliser des outils IA.
Que tu soit une entreprise ou un particulier.

Ceux qui décident de l'utiliser savent que ça produit parfois des choses fausses.

Citation Envoyé par OuftiBoy Voir le message
il faut en finir avec des produits sortant étant non fiables, dangereux, et en bêta tests permanent.
Vous pouvez attendre que ce soit au point.
Les plus optimistes parlent de 2030.

Citation Envoyé par OuftiBoy Voir le message
Quelque soit ton "talent", si tu n'est pas au courant de comment fonctionne une IA
Officiellement c'est une erreur humaine.
Donc ça doit être un "talent" qui a fait de la merde et pas l'IA.

Bon après Anthropic peut mentir...
0  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 08/04/2026 à 11:15
Citation Envoyé par OuftiBoy Voir le message
Pour l'instant, j'ai perso l'impression que l'IA détruit plus de "valeurs" qu'elle n'en crée réellement, fiablemment, pérennement.
C'est normal, les outils IA sont loin d'avoir atteint le stade auquel ils seront fiable et performant.
C'est un accès anticipé (early access) quelque part.

OpenAI dit que si il peut dépenser des centaines de milliards chaque année, alors peut-être qu'à partir de 2030 ChatGPT sera rentable (pour être rentable il faut beaucoup d'utilisateurs payants, pour avoir des utilisateurs payants il faut proposer un outil de qualité, donc OpenAI fera un travail de qualité en 2030 (dans le meilleur scénario possible)).

Citation Envoyé par v0bit Voir le message
Evidemment que c'est une erreur de Claude, c'est lui qui code tout.
De mon point de vue, si l'erreur vient de Claude c'est beaucoup moins grave que si l'erreur est humaine.
Claude est en version alpha, c'est normal que des erreurs aient lieux... (tous les chatbots IA sont en version alpha selon comment on regarde (en tout cas ils produisent plein d'erreurs))

Alors que les humains qui sont embauchés sont censés être des "talents", donc ils doivent connaître les règles de sécurité.
À un moment donné il y a une histoire d'un fichier de débogage .map qui s'est retrouvé sur un dépôt Git (en gros).

Bon après ils disent que c'est lié au logiciel Bun (alternative à Node.js) si un fichier .map s'est retrouvé dans la distribution publique.
Mais Anthropic dit que c'est une erreur humaine, donc ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre.

=====
Citation Envoyé par OuftiBoy Voir le message
tout ce qui "touche" à l'IA est très fragile.
En attendant, actuellement beaucoup d'investisseurs (fonds institutionnels et hedge funds) cherchent à vendre leurs titres OpenAI pour acheter des actions Anthropic à la place.
Ils n'arrivent pas à vendre leurs titre OpenAI, mais si ils y arrivaient ils investiraient dans Anthropic.

OpenAI shares struggle to find buyers as investors shift to Anthropic
OpenAI shares are facing declining demand on secondary markets as investors redirect their focus toward competitor Anthropic, according to a report Wednesday from Bloomberg News.
Ces histoires de fuites ne dérangent absolument pas les fonds institutionnels et les hedge funds.
Le fait que la qualité des réponse baisse ne les dérange pas non plus. (ils font un paris à long terme)

Les chatbots IA seront nuls en 2026, 2027, 2028, 2029, mais peut-être qu'après...
Ou alors plusieurs centaines de milliards auront été dépensés pour rien. On verra...
0  5