
La plupart des gens pensent que leurs conversations avec un chatbot sont privées, mais la réalité est bien différente. Chaque question, chaque commentaire, chaque échange est enregistré et stocké par les entreprises qui gèrent ces services. L'objectif avoué est d'améliorer le service, d'analyser l'utilisation des produits et de perfectionner les modèles de langage (LLM) sous-jacents.
Contexte : l'illusion de la confidentialité et la réalité de la rétention des données
Un exemple frappant de la méconnaissance des utilisateurs concernant la confidentialité a été révélé par l'affaire des conversations de ChatGPT apparaissant dans les résultats de recherche Google. Il s'avère qu'une option permettant de rendre les conversations « découvrables » sur le web était activée par défaut pour de nombreux utilisateurs. Bien qu'OpenAI ait depuis retiré cette fonction et s'efforce de désindexer ce contenu, le mal est fait. La donnée, une fois collectée, persiste.
De plus, un fait troublant mis en lumière par une ordonnance d'un tribunal fédéral est qu'OpenAI est légalement tenu de conserver l'ensemble des conversations des utilisateurs, y compris celles des « chats temporaires » qui étaient censées être effacées. Cela prouve que même les options de confidentialité apparentes peuvent être contournées par des obligations légales ou des pratiques de conservation de données non divulguées.
Une découverte qui secoue les utilisateurs : ChatGPT indexé dans Google
Récemment, les utilisateurs d'OpenAI ChatGPT ont été choqués de découvrir que leurs requêtes (ou prompt, si vous préférez) formulées auprès du chatbot IA apparaissaient dans les résultats de recherche Google.
La situation est survenue notamment après la contestation par OpenAI d’une décision de justice exigeant la sauvegarde de tous les journaux de ChatGPT, y compris les conversations supprimées. C’est en principe un positionnement de nature à rassurer les utilisateurs quant à ce que les pratiques en vigueur chez OpenAI n’exposent pas leurs conversations privées.
C’est cette confiance qu’OpenAI a failli à maintenir en implémentant une fonctionnalité par rapport à laquelle l’entreprise elle-même reconnaît qu’elle ouvrait la porte à l’exposition des données des utilisateurs. Certains observateurs estiment néanmoins que le tort revient aux utilisateurs qui ne prennent pas la peine de lire les conditions d’utilisation des services
En réalité, cette indexation n’est que la partie émergée de l’iceberg. La plupart des plateformes d’IA collectent, stockent et analysent déjà les conversations afin :
- d'améliorer les modèles (affiner les réponses, réduire les erreurs, élargir la base de connaissances),
- d'entraîner de nouvelles versions de leurs IA avec un corpus plus riche,
- de monétiser les données en les intégrant à des produits dérivés ou à des services publicitaires.
L’indignation des internautes révèle surtout une naïveté persistante : croire que l’IA est un outil désintéressé, alors qu’elle est avant tout un service industriel qui vit de la donnée.
En pratique, lorsque vous demandez une réponse à un chatbot IA, que ce soit sur le rôle des droits de douane dans la baisse des prix, sur le fait que votre petite amie soit vraiment amoureuse de vous ou toute autre question, OpenAI enregistre vos questions. Et, jusqu'à récemment, Google conservait ces enregistrements à la disposition de toute personne douée en recherche pour les trouver.
Ce n'est pas comme si OpenAI ne vous avait pas prévenu que si vous partagiez vos requêtes avec d'autres personnes ou les enregistriez pour une utilisation ultérieure, il ne les copiait pas et ne les rendait pas potentiellement consultables. L'entreprise a explicitement déclaré que c'était le cas. L'avertissement disait : « Lorsque les utilisateurs cliquaient sur "Partager", ils avaient la possibilité de « Rendre cette conversation consultable ». En dessous, en petits caractères, se trouvait l'explication selon laquelle vous autorisiez sa « diffusion dans les recherches sur le Web ».
Mais, comme pour toutes ces centaines de lignes de contrats de licence utilisateur final (CLUF) que nous acceptons tous en cliquant sur le bouton « Accepter », il semble que la plupart des gens ne les aient pas lues. Ou ne les aient pas comprises. Choisissez l'une ou l'autre. Peut-être les deux.
Le responsable de la sécurité informatique d'OpenAI, Dane Stuckey, a ensuite tweeté qu'OpenAI avait supprimé cette option car elle « offrait trop d'occasions aux utilisateurs de partager accidentellement des informations qu'ils ne souhaitaient pas divulguer ». L'entreprise « s'efforce également de supprimer le contenu indexé des moteurs de recherche concernés ». Il semble qu'OpenAI ait réussi.

Alors, tout va bien maintenant, n'est-ce pas ? Bien sûr que non
Pour l'instant, personne ne peut trouver sur Google les questions embarrassantes que vous avez posé au chatbot d'OpenAI. Cela ne signifie pas pour autant que les requêtes que vous avez saisies ne risquent pas d'apparaître à la suite d'une violation de données ou de refaire surface d'une manière ou d'une autre dans une recherche Google ou IA. Après tout, OpenAI est légalement tenu de conserver toutes tes requêtes, y compris celles que tu as supprimées. Ou, enfin, celles que vous pensiez avoir supprimées.
En effet, OpenAI est actuellement soumis à une ordonnance d'un tribunal fédéral, dans le cadre d'un procès en cours pour violation du droit d'auteur, qui l'oblige à conserver toutes les conversations des utilisateurs de ChatGPT sur ses niveaux destinés aux consommateurs : Free, Plus, Pro et Team. L'ordonnance du tribunal signifie également que les sessions de « chat temporaire », qui étaient auparavant effacées après utilisation, sont désormais stockées. Elles n'ont plus rien de « temporaire » désormais.
Avant l'entrée en vigueur de l'ordonnance à la mi-mai, OpenAI ne conservait l'historique des conversations que pour les utilisateurs de ChatGPT qui n'avaient pas choisi de ne pas conserver leurs données. Désormais, OpenAI a été contraint de conserver ces données même lorsque les utilisateurs choisissent de ne pas conserver certaines conversations en les supprimant manuellement ou en lançant une conversation éphémère, qui disparaît une fois fermée.
Auparavant, les utilisateurs pouvaient également demander à supprimer entièrement leur compte OpenAI, y compris tout l'historique des conversations, qui était alors purgé dans un délai de 30 jours. Dans un document déposé au tribunal, les avocats d'OpenAI ont fait valoir que l'ordonnance créerait une « charge substantielle » et exigerait de l'entreprise qu'elle apporte « des changements significatifs à son infrastructure de données ».
En obligeant l'entreprise à conserver toutes les conversations supprimées, l'ordonnance pourrait même obliger OpenAI à violer ses propres politiques de protection de la vie privée. Si l'ordonnance est maintenue, les utilisateurs de ChatGPT devront supposer que toutes leurs conversations avec le chatbot sont désormais conservées, ce qui soulève de graves problèmes de confidentialité pour des centaines de millions de personnes.
Chatbots : des agents doubles entre service et surveillance
L’illusion du dialogue amical
Le ton amical, l’écriture fluide et la capacité à « comprendre » les émotions donnent l’impression que les chatbots sont des confidents numériques. Mais derrière cette apparente empathie, les IA remplissent une autre mission : archiver vos échanges. Chaque question, chaque demande devient un signal exploitable. Demander une recette de cuisine, parler de santé, évoquer des inquiétudes professionnelles : toutes ces informations dessinent peu à peu un profil comportemental et psychologique.
La donnée comme carburant
Cette logique rejoint celle des réseaux sociaux : si c’est gratuit, c’est que vous êtes le produit. La différence est qu’ici, les données ne sont pas seulement vos clics ou vos likes, mais vos pensées exprimées par écrit, vos hésitations, vos erreurs, vos habitudes linguistiques. Autrement dit, des informations beaucoup plus profondes et révélatrices.
L'évolution vers une mémoire permanente : la surveillance cachée
Les entreprises d'IA vont encore plus loin avec des fonctionnalités telles que "Memory" chez OpenAI et son équivalent chez Google Gemini ou encore chez Claude d'Anthropic. Ces fonctions sont conçues pour mémoriser automatiquement les informations clés des conversations passées afin de personnaliser les réponses futures...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.