IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Désormais Claude s'entraîne sur vos données : Anthropic change les règles du jeu et va collecter vos données pour améliorer son IA
à moins que vous ne le refusiez explicitement

Le , par Stéphane le calme

333PARTAGES

15  0 
Le paysage de l’IA générative se transforme à grande vitesse, et l’une des annonces les plus marquantes de cet été 2025 vient d’Anthropic, l’éditeur du modèle Claude. Jusqu’ici réputée pour son approche prudente et orientée « sécurité », l’entreprise vient de réviser ses Conditions générales et sa Politique de confidentialité. Désormais, les données issues des conversations des utilisateurs de Claude pourront être utilisées pour entraîner les modèles — sauf en cas de refus explicite.

Cette décision marque une rupture par rapport à la politique originelle d’Anthropic, qui affirmait vouloir limiter au maximum la collecte et l’usage des données, se différenciant ainsi de certains concurrents comme OpenAI. Pour beaucoup d’observateurs, il s’agit d’un tournant stratégique, dicté à la fois par la nécessité de rester compétitif et par les exigences financières colossales que représente l’entraînement des modèles de nouvelle génération.


Anthropic apporte des changements importants à la manière dont elle traite les données des utilisateurs, exigeant que tous les utilisateurs de Claude décident avant le 28 septembre s'ils souhaitent que leurs conversations soient utilisées pour entraîner des modèles d'IA.

Auparavant, Anthropic n'utilisait pas les données des chats des consommateurs pour l'entraînement des modèles. Désormais, l'entreprise souhaite entraîner ses systèmes d'IA à partir des conversations et des sessions de codage des utilisateurs, et elle a déclaré qu'elle prolongeait la conservation des données à cinq ans pour ceux qui ne se désinscrivent pas.

Il s'agit d'une mise à jour majeure. Auparavant, les utilisateurs des produits grand public d'Anthropic étaient informés que leurs requêtes et leurs conversations seraient automatiquement supprimées du back-end d'Anthropic dans un délai de 30 jours, « sauf si la loi ou la politique exigeait de les conserver plus longtemps » ou si leurs contributions étaient signalées comme violant ses politiques, auquel cas les contributions et les conversations d'un utilisateur pouvaient être conservées jusqu'à deux ans.

Par « consommateurs », nous entendons que les nouvelles politiques s'appliquent aux utilisateurs de Claude Free, Pro et Max, y compris ceux qui utilisent Claude Code. Les clients professionnels utilisant Claude Gov, Claude for Work, Claude for Education ou l'accès API ne seront pas concernés, ce qui correspond à la manière dont OpenAI protège de la même manière ses clients professionnels des politiques de formation des données.

Citation Envoyé par Anthropic
Aujourd'hui, nous déployons des mises à jour de nos Conditions d'utilisation et de notre Politique de confidentialité qui nous aideront à fournir des modèles d'IA encore plus performants et utiles. Nous offrons désormais aux utilisateurs la possibilité d'autoriser l'utilisation de leurs données pour améliorer Claude et renforcer nos mesures de protection contre les utilisations préjudiciables telles que les escroqueries et les abus. Vous pouvez facilement modifier vos préférences à tout moment.

Ces mises à jour s'appliquent aux utilisateurs de nos forfaits Claude Free, Pro et Max, y compris lorsqu'ils utilisent Claude Code à partir de comptes associés à ces forfaits. Elles ne s'appliquent pas aux services soumis à nos conditions commerciales, notamment Claude for Work, Claude Gov, Claude for Education ou l'utilisation de l'API, y compris via des tiers tels qu'Amazon Bedrock et Vertex AI de Google Cloud.

En participant, vous nous aiderez à améliorer la sécurité des modèles, en rendant nos systèmes de détection de contenus préjudiciables plus précis et moins susceptibles de signaler des conversations inoffensives. Vous contribuerez également à améliorer les futurs modèles Claude dans des domaines tels que le codage, l'analyse et le raisonnement, ce qui permettra en fin de compte d'obtenir de meilleurs modèles pour tous les utilisateurs.

Vous contrôlez à tout moment ce paramètre et décidez si nous pouvons utiliser vos données de cette manière. Si vous êtes un nouvel utilisateur, vous pouvez sélectionner vos préférences lors du processus d'inscription. Les utilisateurs existants verront le choix dans une fenêtre contextuelle comme celle ci-dessous.
Comment cela va fonctionner concrètement ?

Un consentement affiché dès le 28 août 2025

Les utilisateurs des formules Claude Free, Pro et Max ont désormais jusqu’au 28 septembre 2025 pour faire leur choix. Lors de leur prochaine connexion, une fenêtre s’affichera, présentant :
  • un bouton “Accept”, validant les nouvelles conditions d’utilisation,
  • une case à cocher par défaut activée : “Help improve Claude”.

Si vous laissez cette option cochée, vos conversations (nouvelles ou réactivées) ainsi que vos sessions de code seront utilisées pour l’entraînement futur du modèle. En revanche, si vous décochez la case, vos données continueront à être supprimées après 30 jours, sans intégration dans le corpus d’entraînement.

À compter d'aujourd'hui, nous envoyons des notifications afin que vous puissiez consulter ces mises à jour et gérer vos paramètres. Si vous êtes déjà utilisateur, vous avez jusqu'au 28 septembre 2025 pour accepter...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de selmanjo
Membre régulier https://www.developpez.com
Le 03/09/2025 à 7:16
Inutile pour ceux qui ne l'utilise pas, l'avantage est qu'au moins je reste en bonne santé mentale. Si je l'utilisais, Anthropic ne me payerai PAS pour utiliser mes données. Au final, Anthropic est gagnant, il a bien fait d'attendre qu'il y ait plus de crevette dans le filet.
2  0