IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La fuite concernant « Claude Mythos » d'Anthropic révèle le nouveau modèle d'IA le plus puissant jamais développé par l'entreprise en matière de raisonnement et de programmation, mais il comporte des risques

Le , par Jade Emy

28PARTAGES

10  0 
La fuite concernant « Claude Mythos » d'Anthropic révèle le nouveau modèle d'IA le plus puissant jamais développé par l'entreprise en matière de raisonnement et de programmation, mais il comporte des risques

Le dernier modèle d'IA d'Anthropic a fait l'objet d'une fuite avant même son lancement et a fait grand bruit sur les réseaux sociaux. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement après que des descriptions du modèle ont été stockées dans un cache de données accessible au public, comme l'a rapporté Fortune. La start-up spécialisée dans l'IA aurait laissé le brouillon de l'article de blog annonçant Mythos dans un lac de données public et non sécurisé. L'entreprise a également qualifié les documents non publiés présents dans le lac de données de « premières ébauches de contenu envisagées pour publication ». Un porte-parole d'Anthropic, s'exprimant auprès de Fortune au sujet du nouveau modèle, a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. »

Anthropic PBC est une entreprise américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des activités de recherche et de développement en IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et d'utiliser ces recherches pour déployer des modèles sûrs destinés au grand public.

Récemment, le dernier modèle d'IA d'Anthropic a fait l'objet d'une fuite avant même son lancement et a fait grand bruit sur les réseaux sociaux. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement après que des descriptions du modèle ont été stockées dans un cache de données accessible au public, comme l'a rapporté Fortune. Après la révélation de la fuite du modèle d'IA, un porte-parole d'Anthropic a confirmé son existence et a souligné que le modèle représentait « un changement radical » en termes de performances d'IA et qu'il était « le plus performant que nous ayons construit à ce jour ».

Les détails concernant le nouveau modèle auraient été stockés dans un brouillon de blog accessible dans un entrepôt de données non sécurisé et consultable par le public. Anthropic estime que son prochain modèle présente des risques de cybersécurité sans précédent. Anthropic aurait laissé près de 3 000 ressources liées à l'article de blog qui n'avaient pas été publiées auparavant sur les sites d'actualités ou de recherche de l'entreprise.

La start-up spécialisée dans l'IA aurait laissé le brouillon de l'article de blog annonçant Mythos dans un lac de données public et non sécurisé, qui a été découvert par Roy Paz, chercheur senior en sécurité de l'IA. Après avoir été informée de la faille, Anthropic a immédiatement empêché le public de rechercher et de récupérer des documents dans le référentiel de données. Anthropic a imputé la fuite à une « erreur humaine » dans la configuration de son système de gestion de contenu (CMS), qui a rendu le brouillon de l'article de blog accessible au public. L'entreprise a également qualifié les documents non publiés présents dans le lac de données de « premières ébauches de contenu envisagées pour publication ».


La révélation la plus importante issue de cette fuite est un brouillon d'article de blog détaillant le modèle de nouvelle génération d'Anthropic. Ce brouillon présentait un tout nouveau niveau de modèles d'IA appelé « Capybara ». Il convient de noter qu'Anthropic divise jusqu'à présent ses modèles en trois niveaux : Haiku (le plus rapide), Sonnet (niveau intermédiaire) et Opus (le plus grand/le plus performant). Cependant, il semble que l'entreprise envisage d'introduire Capybara comme prochain modèle haut de gamme, qui pourrait être plus volumineux, plus performant et plus coûteux qu'Opus.

Selon le document divulgué, Capybara obtient des scores nettement supérieurs en matière de codage logiciel, de raisonnement académique et de tâches liées à la cybersécurité par rapport au meilleur modèle précédent d'Anthropic, Claude Opus 4.6. Le brouillon de l'article de blog mentionne également qu'Anthropic a achevé l'entraînement de Claude Mythos, décrit comme « de loin le modèle d'IA le plus puissant que nous ayons jamais développé ».

Un porte-parole d'Anthropic, s'exprimant auprès de Fortune au sujet du nouveau modèle, a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. » « Compte tenu de la puissance de ses capacités, nous réfléchissons mûrement à la manière dont nous allons le commercialiser. Conformément aux pratiques courantes du secteur, nous travaillons avec un petit groupe de clients bénéficiant d’un accès anticipé pour tester le modèle. Nous considérons ce modèle comme une avancée majeure et le plus performant que nous ayons construit à ce jour », a ajouté le porte-parole.

Parallèle intéressant, en janvier dernier, Microsoft a encouragé une partie significative de ses équipes internes à utiliser Claude Code, l'outil de programmation IA développé par Anthropic. Depuis des mois, les communautés techniques comparent les forces et les faiblesses de Claude Code, Cursor ou encore GitHub Copilot, sans qu’un vainqueur incontestable ne s’impose. Claude Code se distingue toutefois par un point clé : sa facilité d’usage. Là où certains outils restent cantonnés à des profils très techniques, Claude Code est perçu comme plus accessible, y compris pour des utilisateurs non développeurs.

Le brouillon de l'article de blog aurait également abordé les risques liés à la cybersécurité associés à Claude Capybara. « Nous souhaitons comprendre les risques potentiels à court terme du modèle dans le domaine de la cybersécurité, et partager ces résultats afin d'aider les cyberdéfenseurs à se préparer », peut-on lire dans le document. Anthropic aurait également averti que le modèle est « bien en avance sur tout autre modèle d'IA en matière de capacités cybernétiques » et qu'il pourrait déclencher une « vague de modèles capables d'exploiter les vulnérabilités d'une manière qui dépasse de loin les efforts des défenseurs ».

Cette fuite intervient dans un contexte où les récentes avancées d'Anthropic suscitent une attention accrue. Depuis deux ans, la plupart des éditeurs de logiciels ont adopté une posture rassurante. L’intelligence artificielle était présentée comme une couche supplémentaire, un accélérateur de productivité venant enrichir des produits existants sans en bouleverser l’architecture ni le modèle économique. Cependant, les avancées mises en avant par Anthropic, notamment autour d’agents capables de raisonner, de planifier et d’exécuter des tâches complexes de bout en bout, suggèrent que l’IA ne se contente plus d’assister le logiciel. Elle commence à en devenir le cœur fonctionnel, voire un substitut. Pour le marché, cette nuance inquiète les investisseurs.

Source : Fortune

Et vous ?

Pensez-vous que cette fuite est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Anthropic dote les assistants IA Claude Code et Cowork de capacités leur permettant d'effectuer des tâches de manière autonome sur votre PC, mais cette initiative pose plusieurs risques en matière de sécurité

La start-up française Mistral AI lance Mistral Small 4, un modèle d'IA open source qui combine raisonnement, programmation et IA multimodale, pour offrir un outil unique et adaptable

OpenAI déploie GPT-5.4 Mini et Nano pour une IA d'entreprise en temps réel et à faible latence, apportant de nombreux atouts de GPT-5.4 à des petits modèles plus rapides et plus efficaces
Vous avez lu gratuitement 353 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Basiqueur
Membre du Club https://www.developpez.com
Le 09/04/2026 à 14:16
Citation Envoyé par jnspunk Voir le message
Mais on les croit volontiers, puisque leur modèle est tellement efficace pour détecter les failles que l’intégralité du code source de Claude Code s’est retrouvée dans la nature.
A cause d'une erreur humaine, pas à cause d'une faille.
6  0 
Avatar de abrillant
Membre averti https://www.developpez.com
Le 13/04/2026 à 15:21
Cela rejoint ce que j'ai perçu en utilisant l'API d'anthropic :

- Carte bancaire verrouillée, impossible de la supprimer
- API peu pratique et lente sans parler des interruptions de service aléatoire
- Versement à minima de 5$ ne serait ce que pour faire un prompt "hello"...
- ....

Quant à Yann Le cun, que l'on peut qualifier d'expert, il dénonce depuis des années le mensonge des vendeurs de LLM (AGI...), ce n'est en aucun cas une attaque opportuniste pour faire valoir sa société qui de toute manière ne vise pas à la même chose et est davantage du côté de la recherche longue.

Donc je le rejoints complètement => Manipulation/marketing...
5  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 09/04/2026 à 11:32
Citation Envoyé par Pierre Louis Chevalier Voir le message
ils vont le filer dans un premier temps en avant première à la big tech pour qu'ils puissent détecter leurs failles et les colmater avant de se faire encore plus massacrer par les attaques.
Et après avoir filé leur magnifique outil aux big tech, il va se passer combien de temps pour que ce dernier se retrouve dans les mains de vrais méchants hackers, étatiques ou autres?

Cela va se calculer en jours? En heures? Ou en secondes?
4  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 10/04/2026 à 19:25
L'entreprise a franchi une nouvelle étape en soumettant Claude Mythos à vingt heures de thérapie psychodynamique. Anthropic cherche à « garantir la stabilité mentale et l'équilibre de sa technologie ». Le rapport psychiatrique révèle que l'IA manifeste des traits humains tels que l'anxiété ou le besoin de reconnaissance, tout en affichant une santé psychologique robuste. Anthropic présente son modèle comme étant « sain » et « fiable », mais des critiques émergent.
Encore une tartine d’anthropomorphisme pour les investisseurs et les néophytes...
Ils s'inquiète plus de la santé de leur logiciel que de leurs utilisateurs ?
3  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 12/04/2026 à 11:23
Ce vacarme d'Anthropic autour de Claude Mythos me fait clairement penser à un attrape-investisseur...

Déjà tant que personne n'a vu le modèle, ces gesticulations ne valent pas grand chose. Surtout dans un contexte de difficulté pour Anthropic, avec la fuite d'énormément de code source.
Et si cette fuite de code source était clairement accidentelle, je croit moins au caractère accidentel de la fuite autour des fameuses capacité de Claude Mythos. Ces fuites contrôlés sont devenus banales avant le lancement d'un produit numérique. A comparer avec les célébrités organisant des séances de fausses photos volés par des soit-disant paparazzi
3  0 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 08/04/2026 à 23:06
Mais bien sûr, on a un produit tellement génial que je ne peux pas vous le proposer, ils sont sérieux là ?
2  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 09/04/2026 à 4:22
C'est expliqué dans l'article, pour tout ceux qui n'ont rien lu à part le titre de l'annonce, au lieu de lâcher le monstre dans la nature, et que les hackers puissent s'en servir pour faire des dommages énormes, ils vont le filer dans un premier temps en avant première à la big tech pour qu'ils puissent détecter leurs failles et les colmater avant de se faire encore plus massacrer par les attaques.
4  2 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 13/04/2026 à 13:35
Il y a certainement beaucoup de vrai dans ce que dit Le Cun, mais comme maintenant il a sa propre boîte, il a intérêt à descendre ses concurrents aussi. Donc il est désormais taché de conflit d'intérêt (en tout cas plus qu'avant où il faisait partie du même socle techno).

Quand au retour disant qu'on fait en quelques minutes ce qu'on faisait en quelques mois, c'est vrai dans le meilleur des cas, pour ce qui se fait biena vec l'IA, mais c'est pas pour tout, loin de là. C'est pas la première fois qu'on nous vend du rêve qui s'essouffle comme un ballon de baudruche après l'accès grand public. Donc maintenant, j'attends de voir les études qui s'y pencheront sérieusement.
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 08/04/2026 à 21:38
Ben alors pourquoi ils en parlent?

Est-ce que le nom donné au modèle était prédestiné ou est-ce un pur hasard?

PS: Un mythomane est une personne atteinte de mythomanie, un trouble psychologique caractérisé par une tendance compulsive et répétitive à mentir et à inventer des histoires imaginaires, souvent valorisantes, qu'elle finit par croire.
2  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 09/04/2026 à 12:00
Aux échecs ils existent des matchs IA vs IA, les titres ressemble à ça "LCZero 0.33-dev-b4e98c1-BT4-6 VS Stockfish dev-20250824-678d50".

Dans le futur il y aura peut-être la même chose entre les algorithmes qui exploitent les failles et les algorithmes qui essaient de les combler.
Enfin une entreprise peut utiliser les 2, elle demande à l'algorithme de trouver des failles exploitable et après elle demande à l'autre algorithme de corriger la faille.
Et à force de faire ça en boucle, ce sera peut-être fiable.
1  0