IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Gemini : Google sauvegarde par défaut vos conversations avec son chatbot IA séparément pendant des années
Ce qui soulève des questions de sécurité

Le , par Stéphane le calme

10PARTAGES

16  0 
Un nouveau document d'assistance choquant de Google a suscité l'indignation après avoir dévoilé comment son application Gemini Chatbot stocke en fait les données des utilisateurs par défaut en ligne. Cette pratique est observée sur le web, pour les utilisateurs d'iOS et ceux d'Android. « Les conversations qui ont été examinées ou annotées par des réviseurs humains (et les données connexes telles que votre langue, le type d'appareil, les informations de localisation ou les commentaires) ne sont pas supprimées lorsque vous supprimez votre activité Gemini Apps, car elles sont conservées séparément et ne sont pas connectées à votre compte Google. En revanche, elles sont conservées pendant une période pouvant aller jusqu'à trois ans », révèle Google dans une page d'assistance.

Ne tapez rien dans Gemini, la famille d'applications GenAI de Google, qui soit incriminant (ou que vous ne voudriez pas que quelqu'un d'autre voie). C'est l'avertissement (en quelque sorte) lancé par Google, qui, dans un nouveau document d'assistance, explique comment il recueille les données des utilisateurs de ses applications de chatbot Gemini pour le web, Android et iOS.

Google précise que des annotateurs humains lisent, étiquettent et traitent régulièrement les conversations avec Gemini (même si ces conversations sont « déconnectées » des comptes Google - afin d'améliorer le service. (Il n'est pas précisé si ces annotateurs sont internes ou externalisés, ce qui pourrait avoir une incidence sur la sécurité des données ; Google ne le précise pas). Ces conversations sont conservées jusqu'à trois ans, avec des « données connexes » telles que les langues et les appareils utilisés par l'utilisateur, ainsi que sa localisation.

Citation Envoyé par Google
Quelles données sont collectées

Lorsque vous interagissez avec les applications Gemini, Google collecte les informations suivantes :
  • Conversations
  • Localisation
  • Commentaires
  • Informations d'utilisation

Lorsque vous utilisez Gemini pour vous faire aider sur mobile, Google traite des informations supplémentaires pour vous comprendre, vous répondre et vous aider, tout en vous permettant de garder les mains libres.

Comment Google utilise ces données

Ces données aident Google à fournir, améliorer et développer ses produits et services, ainsi que ses technologies de machine learning, telles que celles sur lesquelles s'appuient les applications Gemini.

Voici quelques exemples :
  • Les applications Gemini utilisent vos conversations précedentes, votre position et les informations associées pour générer une réponse.
  • Nous examinons vos commentaires et nous les utilisons pour renforcer la sécurité des applications Gemini. Nous les utilisons également pour réduire les problèmes courants liés aux grands modèles de langage.

Quelle est donc la solution ? Comment éviter que cela ne se produise ?

Selon Google, la seule solution semble être de désactiver les applications de Gemini en cliquant sur l'onglet Mon activité, car cette option est activée par défaut et empêche l'accès aux discussions futures ou leur stockage en ligne.

En revanche, si vous êtes plus préoccupé par les chats individuels ou les invites effectuées via Gemini, ne vous inquiétez pas, vous pouvez les supprimer via l'écran Activité des applications dont vous avez été témoin en ligne.

Google a indiqué que les chats effectués par l'intermédiaire de Gemini peuvent toujours être stockés dans la base de données, même si l'activité de Gemini est désactivée. Mais ces données sont conservées pendant 72 heures afin de garantir la sécurité de l'utilisateur sur Gemini et d'améliorer l'expérience de l'utilisateur lors de l'utilisation des applications.

C'est pourquoi le fabricant d'Android avertit désormais les utilisateurs de ne plus ajouter dans les chats des données sensibles ou piratées qu'ils n'auraient jamais voulu exposer pour améliorer les produits et les services, sans parler de la technologie d'apprentissage automatique : « Veuillez ne pas saisir d'informations confidentielles dans vos conversations ni de données que vous ne voudriez pas qu'un évaluateur voie ou que Google utilise pour améliorer nos produits, nos services et nos technologies d'apprentissage automatique », écrit Google.

Il faut dire que les règles de collecte et de conservation des données de GenAI de Google ne diffèrent pas tellement de celles de ses rivaux. OpenAI, par exemple, enregistre tous les chats avec ChatGPT pendant 30 jours, que la fonction d'historique des conversations de ChatGPT soit désactivée ou non, sauf dans les cas où l'utilisateur a souscrit à un plan d'entreprise assorti d'une politique de conservation des données personnalisée.


Un équilibre difficile

La politique de Google illustre les défis inhérents à l'équilibre entre la protection de la vie privée et le développement de modèles GenAI qui se nourrissent des données des utilisateurs pour s'améliorer eux-mêmes.

Les politiques libérales de conservation des données de la GenAI ont récemment mis les fournisseurs dans le collimateur des autorités de régulation.

L'été dernier, la FTC a demandé à OpenAI des informations détaillées sur la manière dont l'entreprise contrôle les données utilisées pour l'entraînement de ses modèles, y compris les données des consommateurs, et sur la manière dont ces données sont protégées lorsqu'elles sont accessibles à des tiers. Du côté de l'Europe, l'autorité italienne de protection des données a déclaré qu'OpenAI ne disposait pas d'une « base juridique » pour la collecte et le stockage massifs de données à caractère personnel en vue de l'entraînement de ses modèles GenAI.

Alors que les outils de GenAI prolifèrent, les organisations se méfient de plus en plus des risques liés à la protection de la vie privée.

OpenAI, Microsoft, Amazon, Google et d'autres proposent des produits GenAI destinés aux entreprises qui ne veulent explicitement pas conserver les données pendant un certain temps, que ce soit pour la formation des modèles ou à d'autres fins. Cependant, les consommateurs - comme c'est souvent le cas - n'ont pas droit à l'erreur.

Une enquête récente de Cisco a révélé que 63 % des entreprises ont établi des limites quant aux données pouvant être introduites dans les outils de GenAI, tandis que 27 % d'entre elles ont complètement interdit la GenAI. La même enquête a révélé que 45 % des employés ont saisi des données « problématiques » dans les outils de GenAI, notamment des informations sur les employés et des fichiers non publics concernant leur employeur.

L'IA générative suscite des inquiétudes croissantes en matière de protection de la vie privée

« Les organisations considèrent la GenAI comme une technologie fondamentalement différente avec de nouveaux défis à prendre en compte », a déclaré Dev Stahlkopf, directeur juridique de Cisco. « Plus de 90% des personnes interrogées pensent que la GenAI nécessite de nouvelles techniques pour gérer les données et les risques. C'est là qu'une gouvernance réfléchie entre en jeu. La préservation de la confiance des clients en dépend ».

Parmi les principales préoccupations, les entreprises ont cité les menaces pesant sur les droits juridiques et de propriété intellectuelle d'une organisation (69 %), et le risque de divulgation d'informations au public ou aux concurrents (68 %).

La plupart des organisations sont conscientes de ces risques et mettent en place des contrôles pour limiter l'exposition : 63% ont établi des limites sur les données qui peuvent être saisies, 61% ont des limites sur les outils GenAI qui peuvent être utilisés par les employés, et 27% ont déclaré que leur organisation avait complètement interdit les applications GenAI pour le moment. Néanmoins, de nombreuses personnes ont saisi des informations qui pourraient être problématiques, notamment des informations sur les employés (45 %) ou des informations non publiques sur l'entreprise (48 %).

Lenteur des progrès en matière d'IA et de transparence

Les consommateurs sont préoccupés par l'utilisation de l'IA impliquant leurs données aujourd'hui, et pourtant 91% des organisations reconnaissent qu'elles doivent faire plus pour rassurer leurs clients sur le fait que leurs données sont utilisées uniquement à des fins prévues et légitimes dans le cadre de l'IA. Ce chiffre est similaire aux niveaux de l'année dernière, ce qui suggère que peu de progrès ont été réalisés.

Les priorités des organisations pour renforcer la confiance des consommateurs diffèrent de celles des individus. Les consommateurs ont indiqué que leurs principales priorités étaient d'obtenir des informations claires sur l'utilisation exacte de leurs données et de ne pas voir leurs données vendues à des fins de marketing. À la même question, les entreprises ont indiqué que leurs principales priorités étaient de se conformer aux lois sur la protection de la vie privée (25 %) et d'éviter les violations de données (23 %). Cela suggère qu'une attention supplémentaire sur la transparence serait utile - en particulier avec les applications d'IA où il peut être difficile de comprendre comment les algorithmes prennent leurs décisions.
Sources : Google, Cisco

Et vous ?

Que pensez-vous de la sauvegarde automatique des conversations par Google ? Est-ce une fonctionnalité utile ou une intrusion dans votre vie privée ?
Faites-vous confiance à Google pour protéger vos données personnelles ? Quelles sont les mesures de sécurité que vous attendez de la part de Google ?
Utilisez-vous Gemini ou une autre application de messagerie ? Quels sont les critères qui vous font choisir une application plutôt qu’une autre ?
Pensez-vous que Google devrait rendre la sauvegarde des conversations optionnelle, et permettre aux utilisateurs de supprimer leurs données de ses serveurs ?
Quelles sont les conséquences potentielles de la sauvegarde des conversations ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 22/02/2024 à 17:13
Avant Gemini cette connerie wokiste est déjà dans les films américains depuis des années et sur les films historiques ça choque.

Aussi bien je trouve ça très bien d'avoir des séries avec un casting international comme par exemple on a vu sur Heroes, Lost, etc, d'autant que c'est vu dans le monde entier alors c'est cool pour tous le monde, aussi bien avoir dans les films historiques par exemple des nazis noirs ou je ne sais quelle autre imbécilité Woke c'est pénible, bientôt Hollywood va nous sortir un nouveau Biopic avec Napoléon et le personnage sera joué par un Chinois transsexuel
10  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 10/02/2024 à 23:42
Marrant comme les entreprises qui s'inquiète des "risques" des images de nus générés par IA sont aussi celles qui pompent allégrement les données privées pour former leurs modèles.
A l'opposé, l'IA l'open-source ne s'inquiète pas des risques mais respecte plus la vie privée
4  0 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 22/02/2024 à 18:49
Ils jouent d'autant plus les wokes car ils ont arrêtés ou au moins diminués les effectifs "diversitaires" parce qu'embaucher des tonnes de gens suivant leur type et non leurs compétences ça va un moment.

Heureusement pour le moment Stable diffusion est à peu près épargné par ces conneries.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/02/2024 à 11:01
Où est l'Union Européenne et son RGPD?

Où est la CNIL, son bras armé en France?

Ben ils regardent ailleurs... Occupés à emmerder la PME qui aurait l'idée d'enregistrer les activités de ses employés qui posent problèmes (vol, etc...), occupés à emmerder l'éditeur de logiciel qui veut mettre en place des rapports statistiques dans ses progiciels...
2  0 
Avatar de irrmichael
Membre du Club https://www.developpez.com
Le 22/02/2024 à 20:19
Bard Gemini cumule les échecs depuis un an.
ça répond à coté, sinon les présentations publiques sont fake, puis là le générateur de photo fait n'importe quoi.
Croire qu'il n'y a personne chez Google pour tester ces outils avant leur publication ?
Pour moi, Google a perdu la course à l'IA. C'est fini.
2  0 
Avatar de weed
Membre expérimenté https://www.developpez.com
Le 12/02/2024 à 22:59
Au moins ils ont l'honnêteté de prévenir
Citation Envoyé par Anselme45 Voir le message
Où est l'Union Européenne et son RGPD?
Où est la CNIL, son bras armé en France?
Malheureusement la CNIL n'a pas de grand moyen face à Google et Microsoft
1  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 22/02/2024 à 23:47
Les excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.
Trolldi.

0  0 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 23/02/2024 à 1:10
Apparemment ça concerne aussi le texte, je viens de tomber sur un fil reddit amusant:

https://www.reddit.com/r/LocalLLaMA/..._two_pictures/
0  0 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 26/02/2024 à 21:51
Il aura fallu que des nazis noirs apparaissent pour que Google reconnaisse enfin le problème woke.
0  0 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 28/02/2024 à 23:38
Leur problème, c'est de vouloir faire des IA sans personnalité alors, forcément, cela ne peut que mécontenter tout le monde. Il ferait plusieurs IA avec chacune leur personnalité (aka biais propres), tout le monde s'y retrouverait et pourrait choisir celle qui leur semble la plus honnête.
0  0