IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic accuse DeepSeek et d'autres laboratoires chinois d'IA d'utiliser Claude pour extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles
à l'aide de 24 000 comptes frauduleux

Le , par Alex

58PARTAGES

5  0 
Anthropic accuse trois laboratoires chinois d'IA, DeepSeek, MiniMax et Moonshot AI (Kimi), d'utiliser abusivement son modèle Claude pour améliorer leurs propres produits d'IA. Anthropic affirme que l'objectif était la distillation, qui consiste à faire apprendre à un modèle plus petit à partir des résultats d'un modèle plus performant, et soutient que le fait de procéder ainsi sans autorisation peut permettre à des concurrents d'accéder à des capacités avancées sans investissement comparable. Alors qu'Anthropic a soulevé ces préoccupations liées à la menace chinoise, le PDG de xAI, Elon Musk, a critiqué l'entreprise d'IA et l'a accusée d'avoir volé des données et d'utiliser gratuitement des données publiques, ce qui, selon Musk, a valu à Anthropic une amende de 1,5 milliard de dollars.

Anthropic est une entreprise américaine spécialisée dans l'IA, fondée en 2021 par un groupe d'anciens chercheurs et cadres d'OpenAI. L'entreprise est surtout connue pour avoir développé une famille de modèles d'IA baptisée Claude. L'entreprise mène des recherches et développe des IA afin d'« étudier leurs propriétés de sécurité à la pointe de la technologie » et utilise ces recherches pour déployer des modèles sûrs destinés au grand public.

Claude est une série de grands modèles de langage développés par Anthropic. C'est aussi le nom de l'agent conversationnel (chatbot) utilisant ce modèle pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est particulièrement connu pour ses performances en programmation informatique, et est intégré dans Claude Code, un agent autonome en ligne de commande. Claude Sonnet désigne la version moyenne du modèle. Claude Opus est un modèle plus coûteux et plus performant, et Haiku un modèle plus léger et plus rapide.

Récemment, Anthropic accuse trois laboratoires chinois d'IA, DeepSeek, MiniMax et Moonshot AI (Kimi), d'utiliser abusivement son modèle Claude pour améliorer leurs propres produits d'IA. La société affirme que cette activité a impliqué environ 24 000 comptes frauduleux et plus de 16 millions d'interactions avec Claude, qu'elle qualifie de campagnes à l'échelle industrielle. Anthropic affirme que l'objectif était la distillation, qui consiste à faire apprendre à un modèle plus petit à partir des résultats d'un modèle plus performant, et soutient que le fait de procéder ainsi sans autorisation peut permettre à des concurrents d'accéder à des capacités avancées sans investissement comparable.

Anthropic met en garde contre le fait que les modèles produits par distillation illicite peuvent ne pas intégrer les mesures de sécurité essentielles, ce qui augmente le risque d'utilisation abusive. Selon elle, ces systèmes pourraient être utilisés à des fins militaires, de renseignement ou de surveillance de masse, y compris dans le cadre d'opérations cyberoffensives ou de campagnes de désinformation. Anthropic affirme que DeepSeek a effectué au moins 150 000 échanges ciblés axés sur les capacités de raisonnement de Claude et sur la génération d'alternatives sans censure à des sujets sensibles, tandis que MiniMax et Moonshot ont enregistré plus de 13 millions et 3,4 millions d'échanges.



Anthropic exhorte les entreprises d'IA, les fournisseurs de services cloud et les décideurs politiques à se pencher sur la question de la distillation et suggère de restreindre davantage l'accès aux puces avancées afin de réduire l'ampleur de ces efforts. Ces affirmations interviennent dans le cadre d'un débat en cours aux États-Unis sur les politiques d'exportation de puces vers la Chine et de préoccupations plus générales concernant la sécurité nationale et les risques économiques liés à « l'extraction non autorisée de modèles ».

Alors qu'Anthropic a soulevé ces préoccupations liées à la menace chinoise, le PDG de xAI, Elon Musk, a critiqué l'entreprise d'IA et l'a accusée d'avoir volé des données et d'utiliser gratuitement des données publiques, ce qui, selon Musk, a valu à Anthropic une amende de 1,5 milliard de dollars. Musk a répondu aux publications d'Anthropic sur les attaques par distillation en citant des notes de la communauté sur X, et a également mentionné que l'entreprise d'IA avait dû payer plusieurs milliards de dollars pour régler un litige concernant le vol présumé de données afin d'entraîner ses modèles d'IA. Ces accusations croisées sont devenues assez courantes ces derniers temps, et le domaine de l'IA en est truffé, car le manque de données d'entraînement pourrait les inciter à s'engager sur une voie sombre.

La note de la communauté sous la publication d'Anthropic suggère que l'entreprise aurait piraté plus de 7 millions de livres provenant de bibliothèques fantômes pour entraîner Claude, et aurait également téléchargé plus de 20 000 chansons via torrent. Musk utilise essentiellement la phrase classique « Regardez qui parle » pour critiquer Anthropic et suggère que l'entreprise devrait d'abord se remettre en question avant d'accuser quiconque de voler ses données.

En effet, en août 2024, des auteurs ont poursuivi la startup d'IA Anthropic, l'accusant d'avoir entraîné son chatbot sur des livres piratés. La plainte affirme qu'Anthropic a profité d'œuvres protégées par des droits d'auteur sans consentement ni compensation. "Il n'est pas exagéré de dire que le modèle d'Anthropic cherche à tirer profit de l'exploitation de l'expression humaine et de l'ingéniosité qui se cachent derrière chacune de ces œuvres", affirme la plainte.

De son côté, Anthropic soutient que la formation à l'IA relève de l'usage loyal, mais le procès conteste cette interprétation. En août 2025, Anthropic a réglé le recours collectif. La doctrine de l'« usage loyal », qui autorise la reproduction limitée de matériel protégé par le droit d'auteur sans consentement dans certaines circonstances, est un élément clé de la défense des sociétés d'IA contre les plaintes pour violation du droit d'auteur. « Cet accord historique profitera à tous les membres du groupe », a déclaré Justin Nelson, associé chez Susman Godfrey et avocat des auteurs. « Nous sommes impatients d'annoncer les détails de l'accord dans les semaines à venir. »



Voici le rapport d'Anthropic :

Détection et prévention des attaques par distillation

Nous avons identifié des campagnes à l'échelle industrielle menées par trois laboratoires d'IA (DeepSeek, Moonshot et MiniMax) visant à extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles. Ces laboratoires ont généré plus de 16 millions d'échanges avec Claude via environ 24 000 comptes frauduleux, en violation de nos conditions d'utilisation et des restrictions d'accès régionales.

Ces laboratoires ont utilisé une technique appelée « distillation », qui consiste à entraîner un modèle moins performant à partir des résultats d'un modèle plus puissant. La distillation est une méthode d'entraînement largement utilisée et légitime. Par...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 24/02/2026 à 18:26
Quand ça les touches eux (les gens produisant des IA), ils se plaignent, alors que leur IA n'existe que parce qu'elle a été entraînée sur des données dont ils se foutait bien du "droit d'auteur". Moi je peux, toi tu peux pas...
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/02/2026 à 18:33
Les voleurs de données qui se plaignent d'être victimes des voleurs de données!

Qui a écrit "les cons çà ose tout, c'est même à çà qu'on les reconnait"???
3  0