Ne tapez rien dans Gemini, la famille d'applications GenAI de Google, qui soit incriminant (ou que vous ne voudriez pas que quelqu'un d'autre voie). C'est l'avertissement (en quelque sorte) lancé par Google, qui, dans un nouveau document d'assistance, explique comment il recueille les données des utilisateurs de ses applications de chatbot Gemini pour le web, Android et iOS.
Google précise que des annotateurs humains lisent, étiquettent et traitent régulièrement les conversations avec Gemini (même si ces conversations sont « déconnectées » des comptes Google - afin d'améliorer le service. (Il n'est pas précisé si ces annotateurs sont internes ou externalisés, ce qui pourrait avoir une incidence sur la sécurité des données ; Google ne le précise pas). Ces conversations sont conservées jusqu'à trois ans, avec des « données connexes » telles que les langues et les appareils utilisés par l'utilisateur, ainsi que sa localisation.
Envoyé par Google
Quelle est donc la solution ? Comment éviter que cela ne se produise ?
Selon Google, la seule solution semble être de désactiver les applications de Gemini en cliquant sur l'onglet Mon activité, car cette option est activée par défaut et empêche l'accès aux discussions futures ou leur stockage en ligne.
En revanche, si vous êtes plus préoccupé par les chats individuels ou les invites effectuées via Gemini, ne vous inquiétez pas, vous pouvez les supprimer via l'écran Activité des applications dont vous avez été témoin en ligne.
Google a indiqué que les chats effectués par l'intermédiaire de Gemini peuvent toujours être stockés dans la base de données, même si l'activité de Gemini est désactivée. Mais ces données sont conservées pendant 72 heures afin de garantir la sécurité de l'utilisateur sur Gemini et d'améliorer l'expérience de l'utilisateur lors de l'utilisation des applications.
C'est pourquoi le fabricant d'Android avertit désormais les utilisateurs de ne plus ajouter dans les chats des données sensibles ou piratées qu'ils n'auraient jamais voulu exposer pour améliorer les produits et les services, sans parler de la technologie d'apprentissage automatique : « Veuillez ne pas saisir d'informations confidentielles dans vos conversations ni de données que vous ne voudriez pas qu'un évaluateur voie ou que Google utilise pour améliorer nos produits, nos services et nos technologies d'apprentissage automatique », écrit Google.
Il faut dire que les règles de collecte et de conservation des données de GenAI de Google ne diffèrent pas tellement de celles de ses rivaux. OpenAI, par exemple, enregistre tous les chats avec ChatGPT pendant 30 jours, que la fonction d'historique des conversations de ChatGPT soit désactivée ou non, sauf dans les cas où l'utilisateur a souscrit à un plan d'entreprise assorti d'une politique de conservation des données personnalisée.
Un équilibre difficile
La politique de Google illustre les défis inhérents à l'équilibre entre la protection de la vie privée et le développement de modèles GenAI qui se nourrissent des données des utilisateurs pour s'améliorer eux-mêmes.
Les politiques libérales de conservation des données de la GenAI ont récemment mis les fournisseurs dans le collimateur des autorités de régulation.
L'été dernier, la FTC a demandé à OpenAI des informations détaillées sur la manière dont l'entreprise contrôle les données utilisées pour l'entraînement de ses modèles, y compris les données des consommateurs, et sur la manière dont ces données sont protégées lorsqu'elles sont accessibles à des tiers. Du côté de l'Europe, l'autorité italienne de protection des données a déclaré qu'OpenAI ne disposait pas d'une « base juridique » pour la collecte et le stockage massifs de données à caractère personnel en vue de l'entraînement de ses modèles GenAI.
Alors que les outils de GenAI prolifèrent, les organisations se méfient de plus en plus des risques liés à la protection de la vie privée.
OpenAI, Microsoft, Amazon, Google et d'autres proposent des produits GenAI destinés aux entreprises qui ne veulent explicitement pas conserver les données pendant un certain temps, que ce soit pour la formation des modèles ou à d'autres fins. Cependant, les consommateurs - comme c'est souvent le cas - n'ont pas droit à l'erreur.
Une enquête récente de Cisco a révélé que 63 % des entreprises ont établi des limites quant aux données pouvant être introduites dans les outils de GenAI, tandis que 27 % d'entre elles ont complètement interdit la GenAI. La même enquête a révélé que 45 % des employés ont saisi des données « problématiques » dans les outils de GenAI, notamment des informations sur les employés et des fichiers non publics concernant leur employeur.
L'IA générative suscite des inquiétudes croissantes en matière de protection de la vie privée
« Les organisations considèrent la GenAI comme une technologie fondamentalement différente avec de nouveaux défis à prendre en compte », a déclaré Dev Stahlkopf, directeur juridique de Cisco. « Plus de 90% des personnes interrogées pensent que la GenAI nécessite de nouvelles techniques pour gérer les données et les risques. C'est là qu'une gouvernance réfléchie entre en jeu. La préservation de la confiance des clients en dépend ».
Parmi les principales préoccupations, les entreprises ont cité les menaces pesant sur les droits juridiques et de propriété intellectuelle d'une organisation (69 %), et le risque de divulgation d'informations au public ou aux concurrents (68 %).
La plupart des organisations sont conscientes de ces risques et mettent en place des contrôles pour limiter l'exposition : 63% ont établi des limites sur les données qui peuvent être saisies, 61% ont des limites sur les outils GenAI qui peuvent être utilisés par les employés, et 27% ont déclaré que leur organisation avait complètement interdit les applications GenAI pour le moment. Néanmoins, de nombreuses personnes ont saisi des informations qui pourraient être problématiques, notamment des informations sur les employés (45 %) ou des informations non publiques sur l'entreprise (48 %).
Lenteur des progrès en matière d'IA et de transparence
Les consommateurs sont préoccupés par l'utilisation de l'IA impliquant leurs données aujourd'hui, et pourtant 91% des organisations reconnaissent qu'elles doivent faire plus pour rassurer leurs clients sur le fait que leurs données sont utilisées uniquement à des fins prévues et légitimes dans le cadre de l'IA. Ce chiffre est similaire aux niveaux de l'année dernière, ce qui suggère que peu de progrès ont été réalisés.
Les priorités des organisations pour renforcer la confiance des consommateurs diffèrent de celles des individus. Les consommateurs ont indiqué que leurs principales priorités étaient d'obtenir des informations claires sur l'utilisation exacte de leurs données et de ne pas voir leurs données vendues à des fins de marketing. À la même question, les entreprises ont indiqué que leurs principales priorités étaient de se conformer aux lois sur la protection de la vie privée (25 %) et d'éviter les violations de données (23 %). Cela suggère qu'une attention supplémentaire sur la transparence serait utile - en particulier avec les applications d'IA où il peut être difficile de comprendre comment les algorithmes prennent leurs décisions.
« Les organisations considèrent la GenAI comme une technologie fondamentalement différente avec de nouveaux défis à prendre en compte », a déclaré Dev Stahlkopf, directeur juridique de Cisco. « Plus de 90% des personnes interrogées pensent que la GenAI nécessite de nouvelles techniques pour gérer les données et les risques. C'est là qu'une gouvernance réfléchie entre en jeu. La préservation de la confiance des clients en dépend ».
Parmi les principales préoccupations, les entreprises ont cité les menaces pesant sur les droits juridiques et de propriété intellectuelle d'une organisation (69 %), et le risque de divulgation d'informations au public ou aux concurrents (68 %).
La plupart des organisations sont conscientes de ces risques et mettent en place des contrôles pour limiter l'exposition : 63% ont établi des limites sur les données qui peuvent être saisies, 61% ont des limites sur les outils GenAI qui peuvent être utilisés par les employés, et 27% ont déclaré que leur organisation avait complètement interdit les applications GenAI pour le moment. Néanmoins, de nombreuses personnes ont saisi des informations qui pourraient être problématiques, notamment des informations sur les employés (45 %) ou des informations non publiques sur l'entreprise (48 %).
Lenteur des progrès en matière d'IA et de transparence
Les consommateurs sont préoccupés par l'utilisation de l'IA impliquant leurs données aujourd'hui, et pourtant 91% des organisations reconnaissent qu'elles doivent faire plus pour rassurer leurs clients sur le fait que leurs données sont utilisées uniquement à des fins prévues et légitimes dans le cadre de l'IA. Ce chiffre est similaire aux niveaux de l'année dernière, ce qui suggère que peu de progrès ont été réalisés.
Les priorités des organisations pour renforcer la confiance des consommateurs diffèrent de celles des individus. Les consommateurs ont indiqué que leurs principales priorités étaient d'obtenir des informations claires sur l'utilisation exacte de leurs données et de ne pas voir leurs données vendues à des fins de marketing. À la même question, les entreprises ont indiqué que leurs principales priorités étaient de se conformer aux lois sur la protection de la vie privée (25 %) et d'éviter les violations de données (23 %). Cela suggère qu'une attention supplémentaire sur la transparence serait utile - en particulier avec les applications d'IA où il peut être difficile de comprendre comment les algorithmes prennent leurs décisions.
Et vous ?
Que pensez-vous de la sauvegarde automatique des conversations par Google ? Est-ce une fonctionnalité utile ou une intrusion dans votre vie privée ?
Faites-vous confiance à Google pour protéger vos données personnelles ? Quelles sont les mesures de sécurité que vous attendez de la part de Google ?
Utilisez-vous Gemini ou une autre application de messagerie ? Quels sont les critères qui vous font choisir une application plutôt qu’une autre ?
Pensez-vous que Google devrait rendre la sauvegarde des conversations optionnelle, et permettre aux utilisateurs de supprimer leurs données de ses serveurs ?
Quelles sont les conséquences potentielles de la sauvegarde des conversations ?