IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Grok, le chatbot IA développé par xAI d'Elon Musk, s'entraîne en analysant les données des utilisateurs de X sans consentement.
Le processus, configuré par défaut en mode « opt-out », suscite la controverse

Le , par Stéphane le calme

97PARTAGES

4  0 
Grok, le chatbot IA développé par xAI d'Elon Musk, s'entraîne en analysant les données des utilisateurs de X sans consentement
Le processus est configuré par défaut en mode « opt-out », ce qui suscite la controverse

Lancée par Elon Musk, la plateforme de médias sociaux X utilise Grok, son chatbot basé sur l’intelligence artificielle, pour analyser les données des utilisateurs. Cependant, ce processus est configuré par défaut en mode « opt-out », ce qui signifie que Grok utilise vos publications à moins que vous ne l’ayez expressément désactivé. Cette approche a suscité l’indignation de certains utilisateurs. De plus, X n’a pas informé les utilisateurs de ce changement ni sollicité leur consentement avant d’entraîner Grok AI sur leurs publications. Cette pratique est de plus en plus courante, mais elle soulève des questions sur la confidentialité et le contrôle des données.

La plateforme de médias sociaux X, dirigée par Elon Musk, entraîne Grok, son chatbot d'intelligence artificielle, à partir des données des utilisateurs. Si vous êtes un utilisateur de X, cela signifie que Grok est déjà en train de s'entraîner sur vos posts si vous ne lui avez pas explicitement demandé de ne pas le faire.

Depuis quelques jours, les utilisateurs de la plateforme ont remarqué la présence d'une case à cocher permettant de refuser l'utilisation de ces données dans les paramètres de confidentialité de X. Cette découverte s'est accompagnée d'une vague d'indignation quant à l'utilisation des données des utilisateurs.

Comme celui-ci qui déclare : « Twitter vient d'activer un paramètre par défaut pour tout le monde qui lui donne le droit d'utiliser vos données pour former grok. Ils ne l'ont jamais annoncé. Vous pouvez désactiver ce paramètre sur le web, mais il est caché. Vous ne pouvez pas le désactiver à partir de l'application mobile ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Twitter just activated a setting by default for everyone that gives them the right to use your data to train grok. They never announced it. You can disable this using the web but it's hidden. You can't disable using the mobile app<br><br>Direct link: <a href="https://t.co/lvinBlQoHC">https://t.co/lvinBlQoHC</a> <a href="https://t.co/LqiO0tyvZG">pic.twitter.com/LqiO0tyvZG</a></p>— Kimmy Bestie of Bunzy, Co-CEO Execubetch™️ (@EasyBakedOven) <a href="https://twitter.com/EasyBakedOven/status/1816696187765838146?ref_src=twsrc%5Etfw">July 26, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Le compte Safety de X a tweeté : « Tous les utilisateurs de X ont la possibilité de contrôler si leurs posts publics peuvent être utilisés pour former Grok, l'assistant de recherche IA ». Mais il n'a pas précisé quand l'option est devenue disponible ni quand la collecte de données a commencé. Pour l'instant, il n'est pas possible de désactiver cette option dans les applications mobiles, mais on peut le faire sur le web mobile, et X affirme que l'option sera bientôt disponible dans les applications.

« Tous les utilisateurs de X ont la possibilité de contrôler si leurs publications publiques peuvent être utilisées pour former Grok, l'assistant de recherche IA. Cette option s'ajoute aux contrôles existants sur l'utilisation de vos interactions, entrées et résultats liés à Grok. Ce paramètre est disponible sur la plateforme web et sera bientôt déployé sur mobile. Cette option de confidentialité est disponible dans les mêmes paramètres de confidentialité que ceux accessibles à tous les utilisateurs de X, ce qui la rend facilement accessible en quelques clics ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">All X users have the ability to control whether their public posts can be used to train Grok, the AI search assistant. This option is in addition to your existing controls over whether your interactions, inputs, and results related to Grok can be utilized. This setting is…</p>— Safety (@Safety) <a href="https://twitter.com/Safety/status/1816874083721838921?ref_src=twsrc%5Etfw">July 26, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

La politique de confidentialité de X le permet depuis au moins septembre 2023.

Il est de plus en plus courant que les données des utilisateurs soient utilisées de cette manière ; par exemple, Meta a fait la même chose avec le contenu de ses utilisateurs, et il y a eu un tollé lorsque Adobe a mis à jour ses conditions d'utilisation pour permettre ce genre de choses (Adobe a rapidement fait marche arrière et a promis de ne « jamais » entraîner l'IA générative sur le contenu des créateurs).

Comment désactiver Grok AI ?

Depuis la version Web :
  1. cliquez sur « Plus » dans le panneau de navigation
  2. cliquez sur « Paramètres et vie privée ».
  3. cliquez sur « Confidentialité et sécurité ».
  4. faites défiler vers le bas et cliquez sur « Grok » sous « Partage de données et personnalisation ».
  5. décochez la case « Permettre à vos posts ainsi qu'à vos interactions, saisies dans Grok et résultats associés d'être utilisés à des fins de formation et d'ajustement », qui est cochée par défaut.


Vous pouvez également suivre un lien (fourni en source) pour accéder directement à la page des paramètres et décocher la case en un seul clic. Si vous le souhaitez, vous pouvez également supprimer l'historique de vos conversations avec Grok ici, à condition que vous ayez déjà utilisé le chatbot.

Pourquoi cette controverse ?

L'entreprise n'a pas demandé le consentement de l'utilisateur ni même informé les utilisateurs avant d'activer l'entraînement à l'IA sur leurs posts X. De plus, le paramètre permettant de désactiver l'entraînement à l'IA n'est pas disponible sur l'application X. Il faudra passer par la version web de X pour le désactiver. Vous devrez passer à la version web de X pour le désactiver. Outre vos posts X, vos chats et vos interactions avec Grok AI peuvent également être utilisés pour entraîner son modèle d'IA.

Sur la page du centre d'aide de Grok, on peut lire : « Afin d'améliorer continuellement votre expérience, nous pouvons utiliser vos messages X ainsi que vos interactions avec Grok à des fins de formation et d'ajustement. Cela signifie également que lorsque vous interagissez avec Grok, vos interactions, entrées et résultats peuvent être utilisés pour former et améliorer les performances du système. »

En tant qu’utilisateurs, nous devons être conscients de ces pratiques et prendre des mesures pour protéger notre vie privée.

Conclusion

Il est essentiel que les entreprises technologiques adoptent une approche plus transparente et respectueuse de la vie privée lorsqu’il s’agit de collecter et d’utiliser les données des utilisateurs. Grok AI est un exemple de la nécessité d’un débat plus large sur l’éthique de l’IA et la protection des données personnelles. Il faut rappeler qu'OpenAI entraîne également son IA sur des chats privés avec ChatGPT. Heureusement, il existe désormais un moyen de refuser l'entraînement de l'IA par ChatGPT.

accéder directement à la page des paramètres

Source : Grok

Et vous ?

La confidentialité des données : Êtes-vous préoccupé par le fait que Grok AI utilise vos publications sans votre consentement explicite ? Pensez-vous que les entreprises devraient toujours opter pour un modèle « opt-in » plutôt que « opt-out » lorsqu’il s’agit d’utiliser les données des utilisateurs ?
L’éthique de l’intelligence artificielle : Quelles sont vos réflexions sur l’utilisation de l’intelligence artificielle pour analyser et interpréter nos données personnelles ? Devrions-nous exiger davantage de transparence et de contrôle sur la manière dont ces systèmes sont formés ?
La responsabilité des entreprises : Comment les entreprises devraient-elles gérer la collecte et l’utilisation des données de leurs utilisateurs ? Quelles mesures devraient-elles prendre pour garantir la protection de la vie privée tout en améliorant leurs services ?
L’avenir de la confidentialité en ligne : Pensez-vous que nous sommes en train de perdre le contrôle sur nos données personnelles à mesure que l’intelligence artificielle se développe ? Quelles solutions proposez-vous pour protéger notre vie privée à l’ère numérique ?
Vous avez lu gratuitement 1 576 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 04/07/2025 à 15:28
Au lieu de raconter des conneries tu ferais mieux de vendre tes actions Tesla et de cesser de défendre cet escroc.
Le taux de pollution de l'eau et de l'air sur les quartiers environnants est au dessus des normes permises, cette implantation est criminelle, ces gens vont mourir du cancer à terme.
Il a implanté sa cochonnerie inutile et polluante en plein milieu d'un quartier très pauvre, peut être qu'il s'est dit que ces gens n'ont pas les moyens de payer un avocat pour les défendre, tu penses bien qu'il aurait pas implanté cette grosse merde chez ses potes riche en plein milieu de Beverly Hills.
Il aurait du alimenter son monstre inutile avec du solaire et des méga batteries Tesla.

Même une turbine gaz c'est une turbine de trop, tu devrais voir les vidéos des voisins du site qui suffoquent sous la pollution de ces turbines, et pour qui leur vie est devenue un enfer, tu t'en fou tu habites pas la bas.

8  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 12/01/2026 à 9:00
Citation Envoyé par J_P_P Voir le message
Bonjour,
Il est simple d'accuser l'outil et de faire du Musk-washing ...
Si j'écrase quelqu'un avec mon véhicule le constructeur doit-il être tenu pour responsable.
On a déjà dit et redit que ça ne fonctionne pas les analogies voitures/informatique !

Dans ton cas, le constructeur n'a pas donné comme fonction à son véhicule d'écraser quelqu'un.
Là, on a un logiciel qui permet de réaliser quelque chose d'illégale. C'est donc bien les concepteurs et distributeurs du logiciel qui sont responsables de la production.
Ils ne sont pas responsables de la diffusion.
Mais, là, encore, le support de diffusion se retrouve être le même Musk, et là encore, il ne respecte pas les lois qui interdisent de diffuser ce genre de photos.

Qu'est-ce que vous voulez de plus ?
7  1 
Avatar de David_g
Membre éprouvé https://www.developpez.com
Le 07/01/2026 à 10:08
Citation Envoyé par jnspunk Voir le message
C'est faux, on ne peut pas empêcher le "jailbreak".
Vouloir "corriger" Grok c'est comme repeindre son mur au lieu de réparer la fuite d'eau qu'il y a derrière : ce n'est pas l'idée la plus brillante.
Cela revient à dire qu'il ne faut pas mettre de serrure sur tes portes car on peut facilement les ouvrir.
En soi, peu de gens finalement feront l'effort ou auront les compétences pour. c'est un peu pareil pour ces deepfakes etc, dés que tu enleves les solutions qui ne demande aucun effort, tu réduis de beaucoup le nombre de cas.

Ici n'importe quel glandu peut mettre n'importe quelle nana à quatre pattes en string etc (beaucoup d'entre eux ont un compte payant et donc cherche aussi des vues comme le mec qui a fait cela à la première ministre suédoise)

S'il devait aller chercher des modèles d'IA, installer un générateur en local etc ou si cela lui demande de comprendre comment aller chercher des solutions pour "hacker" le prompt, 90% ne feront pas l'effort. c'est d'ailleurs le cas pour un photomontage, tu vois personne prendre le temps de se former à toshop/gimp pour réussir à voir quelque chose de qualité parce que cela trop d'effort. tu ajouterais une option dans toshop pour cela, ben bizarrement on en verra plus (alors certes c'est en local donc tu le sauras pas).
7  2 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/01/2026 à 4:30
Je suis d'accord avec lui sur le principe : c'est celui qui fait la requête qui doit être tenu pour responsable.
Là où la responsabilité de l'éditeur de Grok doit être engagée, c'est quand l'image produite ne correspond pas à la requête.
Si la personne demande du CSAM, c'est à elle de se prendre les pénalités.
Si la personne n'en demande pas mais Grok en produit, c'est à l'éditeur de se les prendre.
L'éditeur doit s'assurer de la fiabilité de ce qu'il fournit, mais pas de ce que l'utilisateur en fait.
Et si Grok produit des images ne correspondant pas à la requête, une circonstance aggravante contre l'éditeur est qu'il ne fournisse pas de moyen de corriger, comme supprimer l'image mal générée.

Donc oui sur le fond, il a raison, mais qu'il s'assure au moins de fournir un outil qui fonctionne comme demandé et, pour les cas où ça ne correspond pas (qui arrivent forcément étant donné la techno), les capacités de correction minimales qu'il se doit d'implémenter (e.g. suppression d'image). Autrement il a quand même sa part de responsabilité.
6  2 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 8:05
Citation Envoyé par Ryu2000 Voir le message
Apparemment d'autres plateformes permettent de faire exactement la même chose et Keir Starmer fait semblant que ce n'est pas le cas.
L'histoire des bikinis c'est un prétexte pour attaquer X.
Combien d'évènements liés à Gémini ou ChatGPT ont mené à dénuder des milliers de personnes et à diffuser ces images en quelques jours?

Je pense que nous l'avons suffisamment dit plus haut, le problème n'est pas tant la capacité de le faire mais : la facilité, la qualité du résultat (ce que Gemini et ChatGPT semblent capables de faire) et la capacité de diffusion à grande échelle immédiate (Ce que Gemini et ChatGPT ne font pas).

Donc bien sur que cette histoire est un moyen de s'attaquer au média de harcèlement à grande échelle le plus efficace que l'histoire humaine a connu.
Citation Envoyé par Artaeus Voir le message
Non, ils ne veulent pas écouter, discuter ou débattre.
On peut critiquer Musk, mais le faire en utilisant toutes la mauvaise foi, l'hypocrisie et l'ignorance possible c'est juste ridicule (notamment sur ce sujet).
Mais nous vous écoutons, nous en discutons et nous essayons d'en débattre, ce qui est beaucoup plus compliqué parce que nous ne partons pas du même point de départ.
On peut soutenir Musk, mais le faire en utilisant toutes la mauvaise foi, l'hypocrisie et l'ignorance possible c'est juste ridicule (notamment sur ce sujet), la balle est facile à retourner
Citation Envoyé par J_P_P Voir le message
Ce genre de remarque est juste un encouragement à une sorte d'auto-censure des logiiels d'IA, mais la censure est-elle une solution car elle peut aussi être considérée comme une déviation grave d'un outil en "cachant" une partie des informations ...
Doit-il y avoir de la censure au sein même des IA?
J'en suis convaincu, il me semble évident qu'une IA ne doit pas encourager à (se) donner la mort, ne doit pas créer d'éléments pédophiles etc...
Et pourtant je pense qu'on doit vivre avec le fait qu'il existera toujours des moyens de détourner pour arriver à ces objectifs.
Et pourtant je crois que ces sujets ne doivent pas être tabou dans l'IA (genre éviter les attitudes à la Deepseek qui s'arrête de fonctionner quand on parle de Taiwan) parce que pouvoir en parler et aussi un moyen de prévenir les évènements catastrophiques.

Je pense que le vrai débat est : devons nous relier une IA et un réseau social directement?
Ma réponse est clairement non parce que l'IA et une machine à créer de l'information approximative et le réseau social est un moyen de la diffuser à grande échelle avec le minimum d'effort.
Nous sommes dans une société où une partie des drames qui arrivent ne sont pas dûs à une seule cause mais à la combinaison de plusieurs. Et je penses qu'il est malhonnête de ne s'attaquer qu'à l'une. Et je pense que ça l'est d'autant plus d'utiliser l'une pour dédouaner l'autre.
5  1 
Avatar de BenoitM
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 8:08
Citation Envoyé par J_P_P Voir le message
Bonjour,
Si j'écrase quelqu'un avec mon véhicule le constructeur doit-il être tenu pour responsable.
Non, par contre le constructeur doit respecter des normes : sécurité, de pollution, ...

Citation Envoyé par J_P_P Voir le message
Si j'envoie un mail d'insultes, le service de mail peut-il être tenu pour responsable ?
Non car le service mail ne publie pas les informations. Mais un journal lui est responsable s'il publie votre lettre
4  0 
Avatar de BenoitM
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 16:57
Citation Envoyé par Artaeus Voir le message
L'Indonésie et la Malaisie sont pourtant des modèles démocratiques reconnus comme l'affirme RSF ... (ironie)
La Malaisie est classé 40 mondiale entre la Belgique et la Pologne.
(bon légèrement descendu en 2025 (44ème))
4  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 20/06/2025 à 14:14
Oui enfin la c'est un cas particulier, au lieu d'utiliser des turbines performantes et agréés, son super Grok utilise des turbines de secours ultra polluantes, et qui empoisonnent les habitants aux alentour.

Avec ses milliards au lieu d'acheter twitter pour en faire de la merde, il aurait pu faire construire un parc solaire avec des batteries pour alimenter son truc, donc ça se voie que le Musk en a rien à foutre ni des gens ni de la planète. Ah oui il a dit qu'il allait abandonner la terre pour devenir le roi de Mars, enfin je ne sais pas s'il va oser un jour embarquer dans son Starship en carton. Jeff Bezos au moins lui il a osé embarquer dans sa fusée phallique, alors que Elon a jamais osé mettre les pieds dans une de ses fusées.
3  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 23/06/2025 à 2:54
Tu n'a pas compris le problème, c'est pas juste un problème de turbine à gaz banal c'est que l'installation d'Elon n'est pas classique, c'est de la pure merde inadmissible, c'est un pur assassinat de la population locale, un crime pour lequel il devrait être pendu haut et cours :


Elon Musk installe des turbines « rapides et sales » pour alimenter les centres de données de xAI à Memphis

xAI, la société d'IA d'Elon Musk, utilise des turbines mobiles au gaz naturel pour alimenter son nouveau centre de données Colossus à Memphis, dans le Tennessee, en raison de l'insuffisance de l'électricité fournie par le réseau local. Ces turbines, généralement utilisées en cas d'urgence, sont moins efficaces sur le plan énergétique et émettent plus de polluants que les centrales électriques classiques. L'utilisation de ces turbines par xAI sans autorisation appropriée a suscité l'inquiétude des journalistes locaux et des défenseurs de l'environnement. L'entreprise n'a déposé une demande de permis qu'en janvier 2025, plusieurs mois après que les turbines aient été mises en service, en vue d'obtenir une autorisation pour les turbines existantes et les projets d'en ajouter d'autres. Cette démarche a suscité des critiques en raison de son impact sur l'environnement et de son manque de transparence.

Le département de la santé du comté de Shelby n'a pas fixé de calendrier pour l'approbation des turbines, qui sont sur le point d'émettre une limite critique de formaldéhyde. Si les émissions dépassent 10 tonnes par an, le site sera considéré comme une "source majeure" de pollution, ce qui entraînera une réglementation plus stricte. xAI s'étend également à un deuxième site à Memphis, en utilisant probablement des turbines plus mobiles, ce qui exacerbera les problèmes environnementaux dans une zone déjà polluée. L'approche de l'entreprise a été critiquée pour son manque de respect envers la communauté locale, qui a toujours souffert de la pollution industrielle.

Principaux enseignements :
- xAI utilise des turbines mobiles au gaz naturel pour alimenter son centre de données Colossus à Memphis. Ces turbines sont généralement utilisées en cas d'urgence et sont peu respectueuses de l'environnement.
- xAI a exploité ces turbines sans les permis aériens requis, ce qui a donné lieu à des contestations juridiques et à une demande de permis retardée pour ajouter d'autres turbines.
- L'utilisation de turbines mobiles est une solution palliative en raison de la forte demande d'énergie et des retards dans la production de turbines fixes, bien qu'elles soient moins efficaces et plus polluantes.
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 06/01/2026 à 7:31
Citation Envoyé par Ryu2000 Voir le message
Dessiner une personne réelle en bikini ce n'est pas nouveau.
C'est juste que maintenant c'est accessible à tout le monde et c'est quasi instantané.
Et particulièrement crédible.
Certaines femmes témoignent du malaise en se voyant nue alors qu'elles n'ont jamais été prises en photo sans vêtements.
Il faut voir le bon côté, si des photos ou des vidéos sont diffusées tu peux dire "ce n'est pas réellement moi, c'est de l'IA".
Vla le bon coté.
Même si tu as été carrée toute ta vie là dessus tu risques de te retrouver à moitié nue sur le plus gros réseau social mondial...
Ouais c'est ça le problème, il est impossible de savoir si une personne est majeure ou pas.
Le problème n'est pas de savoir si les personnes sont effectivement mineure ou non mais que des gens se pignolent en imaginant qu'elles le soient.
Et surtout que des personnes s'amusent à "dénuder" des personnes dont l'apparence suggèrent qu'elles sont mineures.
Citation Envoyé par Artaeus Voir le message
Preuve de la complète déliquescence de la rationalité et des mentalités en Europe :
- On accuse plus l'outil que le véritable coupable (celui qui a volontairement lancé le prompt et diffusé l'image).
Je suis bien d'accord là dessus
D'ailleurs, pourquoi ne pas accuser photoshop qui permet de faire la même chose ?
Parce que je suis incapable de le faire avec Photoshop (quoi que avec les fonctions IA c'est peut être devenu abordable) et que la diffusion est bien moins large.
Toutes ces gesticulations cachent juste une seule chose : L’État est devenu incapable de faire respecter les lois alors que les coupables sont identifiables.
Non ces gesticulations cachent une seule chose - et tu le mentionnais plus tôt : des débiles trouvent malin de dénuder des gens sur le plus gros réseau social du monde.
3  0