Anthropic accuse trois laboratoires chinois d'IA, DeepSeek, MiniMax et Moonshot AI (Kimi), d'utiliser abusivement son modèle Claude pour améliorer leurs propres produits d'IA. Anthropic affirme que l'objectif était la distillation, qui consiste à faire apprendre à un modèle plus petit à partir des résultats d'un modèle plus performant, et soutient que le fait de procéder ainsi sans autorisation peut permettre à des concurrents d'accéder à des capacités avancées sans investissement comparable. Alors qu'Anthropic a soulevé ces préoccupations liées à la menace chinoise, le PDG de xAI, Elon Musk, a critiqué l'entreprise d'IA et l'a accusée d'avoir volé des données et d'utiliser gratuitement des données publiques, ce qui, selon Musk, a valu à Anthropic une amende de 1,5 milliard de dollars.Anthropic est une entreprise américaine spécialisée dans l'IA, fondée en 2021 par un groupe d'anciens chercheurs et cadres d'OpenAI. L'entreprise est surtout connue pour avoir développé une famille de modèles d'IA baptisée Claude. L'entreprise mène des recherches et développe des IA afin d'« étudier leurs propriétés de sécurité à la pointe de la technologie » et utilise ces recherches pour déployer des modèles sûrs destinés au grand public.
Claude est une série de grands modèles de langage développés par Anthropic. C'est aussi le nom de l'agent conversationnel (chatbot) utilisant ce modèle pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est particulièrement connu pour ses performances en programmation informatique, et est intégré dans Claude Code, un agent autonome en ligne de commande. Claude Sonnet désigne la version moyenne du modèle. Claude Opus est un modèle plus coûteux et plus performant, et Haiku un modèle plus léger et plus rapide.
Récemment, Anthropic accuse trois laboratoires chinois d'IA, DeepSeek, MiniMax et Moonshot AI (Kimi), d'utiliser abusivement son modèle Claude pour améliorer leurs propres produits d'IA. La société affirme que cette activité a impliqué environ 24 000 comptes frauduleux et plus de 16 millions d'interactions avec Claude, qu'elle qualifie de campagnes à l'échelle industrielle. Anthropic affirme que l'objectif était la distillation, qui consiste à faire apprendre à un modèle plus petit à partir des résultats d'un modèle plus performant, et soutient que le fait de procéder ainsi sans autorisation peut permettre à des concurrents d'accéder à des capacités avancées sans investissement comparable.
Anthropic met en garde contre le fait que les modèles produits par distillation illicite peuvent ne pas intégrer les mesures de sécurité essentielles, ce qui augmente le risque d'utilisation abusive. Selon elle, ces systèmes pourraient être utilisés à des fins militaires, de renseignement ou de surveillance de masse, y compris dans le cadre d'opérations cyberoffensives ou de campagnes de désinformation. Anthropic affirme que DeepSeek a effectué au moins 150 000 échanges ciblés axés sur les capacités de raisonnement de Claude et sur la génération d'alternatives sans censure à des sujets sensibles, tandis que MiniMax et Moonshot ont enregistré plus de 13 millions et 3,4 millions d'échanges.
We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax.
— Anthropic (@AnthropicAI) February 23, 2026
These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.
Anthropic exhorte les entreprises d'IA, les fournisseurs de services cloud et les décideurs politiques à se pencher sur la question de la distillation et suggère de restreindre davantage l'accès aux puces avancées afin de réduire l'ampleur de ces efforts. Ces affirmations interviennent dans le cadre d'un débat en cours aux États-Unis sur les politiques d'exportation de puces vers la Chine et de préoccupations plus générales concernant la sécurité nationale et les risques économiques liés à « l'extraction non autorisée de modèles ».
Alors qu'Anthropic a soulevé ces préoccupations liées à la menace chinoise, le PDG de xAI, Elon Musk, a critiqué l'entreprise d'IA et l'a accusée d'avoir volé des données et d'utiliser gratuitement des données publiques, ce qui, selon Musk, a valu à Anthropic une amende de 1,5 milliard de dollars. Musk a répondu aux publications d'Anthropic sur les attaques par distillation en citant des notes de la communauté sur X, et a également mentionné que l'entreprise d'IA avait dû payer plusieurs milliards de dollars pour régler un litige concernant le vol présumé de données afin d'entraîner ses modèles d'IA. Ces accusations croisées sont devenues assez courantes ces derniers temps, et le domaine de l'IA en est truffé, car le manque de données d'entraînement pourrait les inciter à s'engager sur une voie sombre.
La note de la communauté sous la publication d'Anthropic suggère que l'entreprise aurait piraté plus de 7 millions de livres provenant de bibliothèques fantômes pour entraîner Claude, et aurait également téléchargé plus de 20 000 chansons via torrent. Musk utilise essentiellement la phrase classique « Regardez qui parle » pour critiquer Anthropic et suggère que l'entreprise devrait d'abord se remettre en question avant d'accuser quiconque de voler ses données.
En effet, en août 2024, des auteurs ont poursuivi la startup d'IA Anthropic, l'accusant d'avoir entraîné son chatbot sur des livres piratés. La plainte affirme qu'Anthropic a profité d'œuvres protégées par des droits d'auteur sans consentement ni compensation. "Il n'est pas exagéré de dire que le modèle d'Anthropic cherche à tirer profit de l'exploitation de l'expression humaine et de l'ingéniosité qui se cachent derrière chacune de ces œuvres", affirme la plainte.
De son côté, Anthropic soutient que la formation à l'IA relève de l'usage loyal, mais le procès conteste cette interprétation. En août 2025, Anthropic a réglé le recours collectif. La doctrine de l'« usage loyal », qui autorise la reproduction limitée de matériel protégé par le droit d'auteur sans consentement dans certaines circonstances, est un élément clé de la défense des sociétés d'IA contre les plaintes pour violation du droit d'auteur. « Cet accord historique profitera à tous les membres du groupe », a déclaré Justin Nelson, associé chez Susman Godfrey et avocat des auteurs. « Nous sommes impatients d'annoncer les détails de l'accord dans les semaines à venir. »
Anthropic is guilty of stealing training data at massive scale and has had to pay multi-billion dollar settlements for their theft. This is just a fact. https://t.co/EEtdsJQ1Op
— Elon Musk (@elonmusk) February 23, 2026
Voici le rapport d'Anthropic :
Détection et prévention des attaques par distillation
Nous avons identifié des campagnes à l'échelle industrielle menées par trois laboratoires d'IA (DeepSeek, Moonshot et MiniMax) visant à extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles. Ces laboratoires ont généré plus de 16 millions d'échanges avec Claude via environ 24 000 comptes frauduleux, en violation de nos conditions d'utilisation et des restrictions d'accès régionales.
Ces laboratoires ont utilisé une technique appelée « distillation », qui consiste à entraîner un modèle moins performant à partir des résultats d'un modèle plus puissant. La distillation est une méthode d'entraînement largement utilisée et légitime. Par...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
