
à moins que vous ne le refusiez explicitement
Le paysage de l’IA générative se transforme à grande vitesse, et l’une des annonces les plus marquantes de cet été 2025 vient d’Anthropic, l’éditeur du modèle Claude. Jusqu’ici réputée pour son approche prudente et orientée « sécurité », l’entreprise vient de réviser ses Conditions générales et sa Politique de confidentialité. Désormais, les données issues des conversations des utilisateurs de Claude pourront être utilisées pour entraîner les modèles — sauf en cas de refus explicite.
Cette décision marque une rupture par rapport à la politique originelle d’Anthropic, qui affirmait vouloir limiter au maximum la collecte et l’usage des données, se différenciant ainsi de certains concurrents comme OpenAI. Pour beaucoup d’observateurs, il s’agit d’un tournant stratégique, dicté à la fois par la nécessité de rester compétitif et par les exigences financières colossales que représente l’entraînement des modèles de nouvelle génération.
Anthropic apporte des changements importants à la manière dont elle traite les données des utilisateurs, exigeant que tous les utilisateurs de Claude décident avant le 28 septembre s'ils souhaitent que leurs conversations soient utilisées pour entraîner des modèles d'IA.
Auparavant, Anthropic n'utilisait pas les données des chats des consommateurs pour l'entraînement des modèles. Désormais, l'entreprise souhaite entraîner ses systèmes d'IA à partir des conversations et des sessions de codage des utilisateurs, et elle a déclaré qu'elle prolongeait la conservation des données à cinq ans pour ceux qui ne se désinscrivent pas.
Il s'agit d'une mise à jour majeure. Auparavant, les utilisateurs des produits grand public d'Anthropic étaient informés que leurs requêtes et leurs conversations seraient automatiquement supprimées du back-end d'Anthropic dans un délai de 30 jours, « sauf si la loi ou la politique exigeait de les conserver plus longtemps » ou si leurs contributions étaient signalées comme violant ses politiques, auquel cas les contributions et les conversations d'un utilisateur pouvaient être conservées jusqu'à deux ans.
Par « consommateurs », nous entendons que les nouvelles politiques s'appliquent aux utilisateurs de Claude Free, Pro et Max, y compris ceux qui utilisent Claude Code. Les clients professionnels utilisant Claude Gov, Claude for Work, Claude for Education ou l'accès API ne seront pas concernés, ce qui correspond à la manière dont OpenAI protège de la même manière ses clients professionnels des politiques de formation des données.

Un consentement affiché dès le 28 août 2025
Les utilisateurs des formules Claude Free, Pro et Max ont désormais jusqu’au 28 septembre 2025 pour faire leur choix. Lors de leur prochaine connexion, une fenêtre s’affichera, présentant :
- un bouton “Accept”, validant les nouvelles conditions d’utilisation,
- une case à cocher par défaut activée : “Help improve Claude”.
Si vous laissez cette option cochée, vos conversations (nouvelles ou réactivées) ainsi que vos sessions de code seront utilisées pour l’entraînement futur du modèle. En revanche, si vous décochez la case, vos données continueront à être supprimées après 30 jours, sans intégration dans le corpus d’entraînement.
À compter d'aujourd'hui, nous envoyons des notifications afin que vous puissiez consulter ces mises à jour et gérer vos paramètres. Si vous êtes déjà utilisateur, vous avez jusqu'au 28 septembre 2025 pour accepter les Conditions d'utilisation mises à jour et prendre votre décision. Si vous choisissez d'accepter les nouvelles politiques dès maintenant, elles entreront en vigueur immédiatement. Ces mises à jour s'appliqueront uniquement aux nouvelles discussions et sessions de codage ou à celles qui ont repris. Après le 28 septembre, vous devrez faire votre choix concernant le paramètre de formation du modèle afin de continuer à utiliser Claude. Vous pouvez modifier votre choix à tout moment dans vos paramètres de confidentialité.
Durée de conservation : 30 jours ou 5 ans
Anthropic introduit une distinction majeure dans la gestion du cycle de vie des données :
- 5 ans de conservation si vous participez volontairement à l’amélioration de Claude,
- 30 jours sinon — ce qui correspond à la durée de rétention déjà en vigueur.
Un détail important : si vous changez d’avis plus tard, seules les données futures seront affectées par votre choix. Les conversations déjà utilisées à des fins d’entraînement resteront intégrées dans les modèles — et donc impossibles à retirer rétroactivement.

- Les nouvelles conversations : toute interaction initiée après le 28 août, si l’option reste activée.
- Les sessions réactivées : reprendre une ancienne discussion équivaut à la rendre potentiellement exploitable pour l’entraînement.
- Les interactions de codage : particulièrement précieuses pour améliorer les compétences de Claude en matière de développement logiciel.
En revanche :
- Les utilisateurs professionnels (Claude for Work, Education, API via AWS Bedrock ou Google Vertex AI) ne sont pas concernés par cette politique.
- Les partenaires de développement restent soumis à des conditions contractuelles spécifiques, indépendantes de ce nouveau régime.
Pourquoi Anthropic change-t-il de stratégie ?
Anthropic avance plusieurs justifications officielles :
- Améliorer la sécurité du modèle : Les données réelles, issues d’utilisateurs variés, permettent d’identifier plus efficacement les abus, les prompts malveillants ou encore les biais d’utilisation.
- Optimiser les performances : Plus de données signifie de meilleurs résultats dans les tâches complexes : raisonnement logique, compréhension de code, cohérence des réponses.
- Maintenir la continuité entre les générations de modèles : L’entraînement d’un modèle nécessite d’énormes volumes de données diversifiées. Prolonger la rétention sur 5 ans permet de bâtir un corpus stable et plus représentatif.
- Assurer la compétitivité : Dans un marché dominé par OpenAI, Google DeepMind et de nouveaux entrants asiatiques, Anthropic ne peut se permettre de limiter drastiquement son accès à des données fraîches et contextualisées.
Cependant, cette réorientation s’accompagne d’une promesse : les données sensibles seront filtrées via des outils automatisés, anonymisées et ne feront l’objet d’aucune commercialisation externe.

Les critiques et inquiétudes des utilisateurs
Malgré ces assurances, la communauté tech reste prudente — voire méfiante. Plusieurs points alimentent le débat.
Un opt-out plutôt qu’un opt-in : Beaucoup estiment que la méthode choisie par Anthropic (activation par défaut) constitue une forme de biais coercitif, surtout pour des utilisateurs payants qui pourraient s’attendre à un niveau de confidentialité maximal.
Un précédent dangereux : Si Anthropic, pourtant considérée comme l’une des entreprises les plus “responsables”, se tourne vers cette stratégie, qu’est-ce qui empêchera d’autres acteurs de pousser encore plus loin la collecte de données ?
La question du consentement réel : Les utilisateurs comprennent-ils vraiment la portée de ce choix ? En pratique, beaucoup risquent d’accepter sans lire les conditions, laissant leurs données circuler bien au-delà de leur intention initiale.
L’anonymisation reste opaque : L’entreprise n’a pas détaillé en profondeur la nature du filtrage appliqué, ni la capacité de ces outils à garantir que des données sensibles ou confidentielles ne se retrouvent pas indirectement exploitées.
Cette annonce survient alors qu’Anthropic est déjà sous le feu de critiques judiciaires. Reddit a engagé une poursuite en justice contre la société, l’accusant d’avoir fait du scrapping massif de ses contenus, y compris des posts supprimés, afin d’entraîner Claude... le tout sans licence ni respect des conditions de la plateforme.
Cette affaire met en lumière la fragilité juridique de l’écosystème IA : d’un côté, des entreprises qui ont besoin de données pour survivre ; de l’autre, des producteurs de contenus qui réclament une juste rémunération ou, au minimum, un contrôle sur l’usage de leurs données.
Source : Anthropic
Et vous ?






Vous avez lu gratuitement 1 040 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.