IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Désormais Claude s'entraîne sur vos données : Anthropic change les règles du jeu et va collecter vos données pour améliorer son IA
à moins que vous ne le refusiez explicitement

Le , par Stéphane le calme

3PARTAGES

14  0 
Désormais Claude s’entraîne sur vos données : Anthropic change les règles du jeu et va collecter vos données pour améliorer son IA,
à moins que vous ne le refusiez explicitement

Le paysage de l’IA générative se transforme à grande vitesse, et l’une des annonces les plus marquantes de cet été 2025 vient d’Anthropic, l’éditeur du modèle Claude. Jusqu’ici réputée pour son approche prudente et orientée « sécurité », l’entreprise vient de réviser ses Conditions générales et sa Politique de confidentialité. Désormais, les données issues des conversations des utilisateurs de Claude pourront être utilisées pour entraîner les modèles — sauf en cas de refus explicite.

Cette décision marque une rupture par rapport à la politique originelle d’Anthropic, qui affirmait vouloir limiter au maximum la collecte et l’usage des données, se différenciant ainsi de certains concurrents comme OpenAI. Pour beaucoup d’observateurs, il s’agit d’un tournant stratégique, dicté à la fois par la nécessité de rester compétitif et par les exigences financières colossales que représente l’entraînement des modèles de nouvelle génération.


Anthropic apporte des changements importants à la manière dont elle traite les données des utilisateurs, exigeant que tous les utilisateurs de Claude décident avant le 28 septembre s'ils souhaitent que leurs conversations soient utilisées pour entraîner des modèles d'IA.

Auparavant, Anthropic n'utilisait pas les données des chats des consommateurs pour l'entraînement des modèles. Désormais, l'entreprise souhaite entraîner ses systèmes d'IA à partir des conversations et des sessions de codage des utilisateurs, et elle a déclaré qu'elle prolongeait la conservation des données à cinq ans pour ceux qui ne se désinscrivent pas.

Il s'agit d'une mise à jour majeure. Auparavant, les utilisateurs des produits grand public d'Anthropic étaient informés que leurs requêtes et leurs conversations seraient automatiquement supprimées du back-end d'Anthropic dans un délai de 30 jours, « sauf si la loi ou la politique exigeait de les conserver plus longtemps » ou si leurs contributions étaient signalées comme violant ses politiques, auquel cas les contributions et les conversations d'un utilisateur pouvaient être conservées jusqu'à deux ans.

Par « consommateurs », nous entendons que les nouvelles politiques s'appliquent aux utilisateurs de Claude Free, Pro et Max, y compris ceux qui utilisent Claude Code. Les clients professionnels utilisant Claude Gov, Claude for Work, Claude for Education ou l'accès API ne seront pas concernés, ce qui correspond à la manière dont OpenAI protège de la même manière ses clients professionnels des politiques de formation des données.

Citation Envoyé par Anthropic
Aujourd'hui, nous déployons des mises à jour de nos Conditions d'utilisation et de notre Politique de confidentialité qui nous aideront à fournir des modèles d'IA encore plus performants et utiles. Nous offrons désormais aux utilisateurs la possibilité d'autoriser l'utilisation de leurs données pour améliorer Claude et renforcer nos mesures de protection contre les utilisations préjudiciables telles que les escroqueries et les abus. Vous pouvez facilement modifier vos préférences à tout moment.

Ces mises à jour s'appliquent aux utilisateurs de nos forfaits Claude Free, Pro et Max, y compris lorsqu'ils utilisent Claude Code à partir de comptes associés à ces forfaits. Elles ne s'appliquent pas aux services soumis à nos conditions commerciales, notamment Claude for Work, Claude Gov, Claude for Education ou l'utilisation de l'API, y compris via des tiers tels qu'Amazon Bedrock et Vertex AI de Google Cloud.

En participant, vous nous aiderez à améliorer la sécurité des modèles, en rendant nos systèmes de détection de contenus préjudiciables plus précis et moins susceptibles de signaler des conversations inoffensives. Vous contribuerez également à améliorer les futurs modèles Claude dans des domaines tels que le codage, l'analyse et le raisonnement, ce qui permettra en fin de compte d'obtenir de meilleurs modèles pour tous les utilisateurs.

Vous contrôlez à tout moment ce paramètre et décidez si nous pouvons utiliser vos données de cette manière. Si vous êtes un nouvel utilisateur, vous pouvez sélectionner vos préférences lors du processus d'inscription. Les utilisateurs existants verront le choix dans une fenêtre contextuelle comme celle ci-dessous.
Comment cela va fonctionner concrètement ?

Un consentement affiché dès le 28 août 2025

Les utilisateurs des formules Claude Free, Pro et Max ont désormais jusqu’au 28 septembre 2025 pour faire leur choix. Lors de leur prochaine connexion, une fenêtre s’affichera, présentant :
  • un bouton “Accept”, validant les nouvelles conditions d’utilisation,
  • une case à cocher par défaut activée : “Help improve Claude”.

Si vous laissez cette option cochée, vos conversations (nouvelles ou réactivées) ainsi que vos sessions de code seront utilisées pour l’entraînement futur du modèle. En revanche, si vous décochez la case, vos données continueront à être supprimées après 30 jours, sans intégration dans le corpus d’entraînement.

À compter d'aujourd'hui, nous envoyons des notifications afin que vous puissiez consulter ces mises à jour et gérer vos paramètres. Si vous êtes déjà utilisateur, vous avez jusqu'au 28 septembre 2025 pour accepter les Conditions d'utilisation mises à jour et prendre votre décision. Si vous choisissez d'accepter les nouvelles politiques dès maintenant, elles entreront en vigueur immédiatement. Ces mises à jour s'appliqueront uniquement aux nouvelles discussions et sessions de codage ou à celles qui ont repris. Après le 28 septembre, vous devrez faire votre choix concernant le paramètre de formation du modèle afin de continuer à utiliser Claude. Vous pouvez modifier votre choix à tout moment dans vos paramètres de confidentialité.

Durée de conservation : 30 jours ou 5 ans

Anthropic introduit une distinction majeure dans la gestion du cycle de vie des données :
  • 5 ans de conservation si vous participez volontairement à l’amélioration de Claude,
  • 30 jours sinon — ce qui correspond à la durée de rétention déjà en vigueur.

Un détail important : si vous changez d’avis plus tard, seules les données futures seront affectées par votre choix. Les conversations déjà utilisées à des fins d’entraînement resteront intégrées dans les modèles — et donc impossibles à retirer rétroactivement.

Citation Envoyé par Anthropic
Nous prolongeons également la durée de conservation des données à cinq ans, si vous nous autorisez à utiliser vos données pour l'entraînement des modèles. Cette durée de conservation mise à jour s'appliquera uniquement aux nouvelles conversations ou aux reprises de conversations et aux sessions de codage, et nous permettra de mieux soutenir le développement des modèles et l'amélioration de la sécurité. Si vous supprimez une conversation avec Claude, elle ne sera pas utilisée pour l'entraînement futur des modèles. Si vous choisissez de ne pas fournir vos données pour l'entraînement des modèles, vous continuerez à bénéficier de notre période de conservation des données actuelle de 30 jours.

La nouvelle période de conservation de cinq ans s'appliquera également aux commentaires que vous nous soumettez concernant les réponses de Claude à vos demandes.
Quelles données sont concernées ?
  • Les nouvelles conversations : toute interaction initiée après le 28 août, si l’option reste activée.
  • Les sessions réactivées : reprendre une ancienne discussion équivaut à la rendre potentiellement exploitable pour l’entraînement.
  • Les interactions de codage : particulièrement précieuses pour améliorer les compétences de Claude en matière de développement logiciel.

En revanche :
  • Les utilisateurs professionnels (Claude for Work, Education, API via AWS Bedrock ou Google Vertex AI) ne sont pas concernés par cette politique.
  • Les partenaires de développement restent soumis à des conditions contractuelles spécifiques, indépendantes de ce nouveau régime.

Pourquoi Anthropic change-t-il de stratégie ?

Anthropic avance plusieurs justifications officielles :
  • Améliorer la sécurité du modèle : Les données réelles, issues d’utilisateurs variés, permettent d’identifier plus efficacement les abus, les prompts malveillants ou encore les biais d’utilisation.
  • Optimiser les performances : Plus de données signifie de meilleurs résultats dans les tâches complexes : raisonnement logique, compréhension de code, cohérence des réponses.
  • Maintenir la continuité entre les générations de modèles : L’entraînement d’un modèle nécessite d’énormes volumes de données diversifiées. Prolonger la rétention sur 5 ans permet de bâtir un corpus stable et plus représentatif.
  • Assurer la compétitivité : Dans un marché dominé par OpenAI, Google DeepMind et de nouveaux entrants asiatiques, Anthropic ne peut se permettre de limiter drastiquement son accès à des données fraîches et contextualisées.

Cependant, cette réorientation s’accompagne d’une promesse : les données sensibles seront filtrées via des outils automatisés, anonymisées et ne feront l’objet d’aucune commercialisation externe.

Citation Envoyé par Anthropic
Pourquoi effectuez-vous ce changement ?

Tous les grands modèles de langages, comme Claude, sont entraînés à l'aide de grandes quantités de données. Les données issues d'interactions réelles fournissent des informations précieuses sur les réponses les plus utiles et les plus précises pour les utilisateurs. Par exemple, lorsqu'un développeur débogue du code en collaborant avec un modèle d'IA, cette interaction fournit des signaux précieux qui contribuent à améliorer les futurs modèles pour des tâches de codage similaires. Cela crée une boucle de rétroaction qui aide les modèles à s'améliorer au fil du temps.

C'est à vous de choisir si vous autorisez l'utilisation de vos données pour améliorer les nouveaux modèles Claude. Vous pouvez modifier votre choix à tout moment dans vos paramètres de confidentialité.

Les critiques et inquiétudes des utilisateurs

Malgré ces assurances, la communauté tech reste prudente — voire méfiante. Plusieurs points alimentent le débat.

Un opt-out plutôt qu’un opt-in : Beaucoup estiment que la méthode choisie par Anthropic (activation par défaut) constitue une forme de biais coercitif, surtout pour des utilisateurs payants qui pourraient s’attendre à un niveau de confidentialité maximal.

Un précédent dangereux : Si Anthropic, pourtant considérée comme l’une des entreprises les plus “responsables”, se tourne vers cette stratégie, qu’est-ce qui empêchera d’autres acteurs de pousser encore plus loin la collecte de données ?

La question du consentement réel : Les utilisateurs comprennent-ils vraiment la portée de ce choix ? En pratique, beaucoup risquent d’accepter sans lire les conditions, laissant leurs données circuler bien au-delà de leur intention initiale.

L’anonymisation reste opaque : L’entreprise n’a pas détaillé en profondeur la nature du filtrage appliqué, ni la capacité de ces outils à garantir que des données sensibles ou confidentielles ne se retrouvent pas indirectement exploitées.

Cette annonce survient alors qu’Anthropic est déjà sous le feu de critiques judiciaires. Reddit a engagé une poursuite en justice contre la société, l’accusant d’avoir fait du scrapping massif de ses contenus, y compris des posts supprimés, afin d’entraîner Claude... le tout sans licence ni respect des conditions de la plateforme.

Cette affaire met en lumière la fragilité juridique de l’écosystème IA : d’un côté, des entreprises qui ont besoin de données pour survivre ; de l’autre, des producteurs de contenus qui réclament une juste rémunération ou, au minimum, un contrôle sur l’usage de leurs données.

Source : Anthropic

Et vous ?

Êtes-vous surpris de ce revirement ? Pourquoi ou pourquoi pas ?

Le fait de proposer un opt-out par défaut (plutôt qu’un opt-in volontaire) est-il une forme d’ingénierie sociale visant à obtenir massivement des données sans réel choix ?

Faut-il accepter une collecte plus intrusive pour permettre aux modèles d’IA d’être plus performants, ou la confidentialité doit-elle rester un principe non négociable ?

Les techniques de filtrage et de pseudonymisation mises en avant par Anthropic garantissent-elles réellement la protection des données sensibles ?

Les utilisateurs pourraient-ils, par inadvertance, exposer des secrets de fabrication, du code propriétaire ou des données clients dans un contexte où ces données sont absorbées par le modèle ?

Payer un service devrait-il logiquement inclure une confidentialité renforcée, plutôt qu’un partage de données activé par défaut ?
Vous avez lu gratuitement 1 040 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !