Le paysage de l’IA générative se transforme à grande vitesse, et l’une des annonces les plus marquantes de cet été 2025 vient d’Anthropic, l’éditeur du modèle Claude. Jusqu’ici réputée pour son approche prudente et orientée « sécurité », l’entreprise vient de réviser ses Conditions générales et sa Politique de confidentialité. Désormais, les données issues des conversations des utilisateurs de Claude pourront être utilisées pour entraîner les modèles — sauf en cas de refus explicite.Cette décision marque une rupture par rapport à la politique originelle d’Anthropic, qui affirmait vouloir limiter au maximum la collecte et l’usage des données, se différenciant ainsi de certains concurrents comme OpenAI. Pour beaucoup d’observateurs, il s’agit d’un tournant stratégique, dicté à la fois par la nécessité de rester compétitif et par les exigences financières colossales que représente l’entraînement des modèles de nouvelle génération.
Anthropic apporte des changements importants à la manière dont elle traite les données des utilisateurs, exigeant que tous les utilisateurs de Claude décident avant le 28 septembre s'ils souhaitent que leurs conversations soient utilisées pour entraîner des modèles d'IA.
Auparavant, Anthropic n'utilisait pas les données des chats des consommateurs pour l'entraînement des modèles. Désormais, l'entreprise souhaite entraîner ses systèmes d'IA à partir des conversations et des sessions de codage des utilisateurs, et elle a déclaré qu'elle prolongeait la conservation des données à cinq ans pour ceux qui ne se désinscrivent pas.
Il s'agit d'une mise à jour majeure. Auparavant, les utilisateurs des produits grand public d'Anthropic étaient informés que leurs requêtes et leurs conversations seraient automatiquement supprimées du back-end d'Anthropic dans un délai de 30 jours, « sauf si la loi ou la politique exigeait de les conserver plus longtemps » ou si leurs contributions étaient signalées comme violant ses politiques, auquel cas les contributions et les conversations d'un utilisateur pouvaient être conservées jusqu'à deux ans.
Par « consommateurs », nous entendons que les nouvelles politiques s'appliquent aux utilisateurs de Claude Free, Pro et Max, y compris ceux qui utilisent Claude Code. Les clients professionnels utilisant Claude Gov, Claude for Work, Claude for Education ou l'accès API ne seront pas concernés, ce qui correspond à la manière dont OpenAI protège de la même manière ses clients professionnels des politiques de formation des données.
Un consentement affiché dès le 28 août 2025
Les utilisateurs des formules Claude Free, Pro et Max ont désormais jusqu’au 28 septembre 2025 pour faire leur choix. Lors de leur prochaine connexion, une fenêtre s’affichera, présentant :
- un bouton “Accept”, validant les nouvelles conditions d’utilisation,
- une case à cocher par défaut activée : “Help improve Claude”.
Si vous laissez cette option cochée, vos conversations (nouvelles ou réactivées) ainsi que vos sessions de code seront utilisées pour l’entraînement futur du modèle. En revanche, si vous décochez la case, vos données continueront à être supprimées après 30 jours, sans intégration dans le corpus d’entraînement.
À compter d'aujourd'hui, nous envoyons des notifications afin que vous puissiez consulter ces mises à jour et gérer vos paramètres. Si vous êtes déjà utilisateur, vous avez jusqu'au 28 septembre 2025 pour accepter...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.