IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Grok, le chatbot IA développé par xAI d'Elon Musk, s'entraîne en analysant les données des utilisateurs de X sans consentement.
Le processus, configuré par défaut en mode « opt-out », suscite la controverse

Le , par Stéphane le calme

55PARTAGES

4  0 
Grok, le chatbot IA développé par xAI d'Elon Musk, s'entraîne en analysant les données des utilisateurs de X sans consentement
Le processus est configuré par défaut en mode « opt-out », ce qui suscite la controverse

Lancée par Elon Musk, la plateforme de médias sociaux X utilise Grok, son chatbot basé sur l’intelligence artificielle, pour analyser les données des utilisateurs. Cependant, ce processus est configuré par défaut en mode « opt-out », ce qui signifie que Grok utilise vos publications à moins que vous ne l’ayez expressément désactivé. Cette approche a suscité l’indignation de certains utilisateurs. De plus, X n’a pas informé les utilisateurs de ce changement ni sollicité leur consentement avant d’entraîner Grok AI sur leurs publications. Cette pratique est de plus en plus courante, mais elle soulève des questions sur la confidentialité et le contrôle des données.

La plateforme de médias sociaux X, dirigée par Elon Musk, entraîne Grok, son chatbot d'intelligence artificielle, à partir des données des utilisateurs. Si vous êtes un utilisateur de X, cela signifie que Grok est déjà en train de s'entraîner sur vos posts si vous ne lui avez pas explicitement demandé de ne pas le faire.

Depuis quelques jours, les utilisateurs de la plateforme ont remarqué la présence d'une case à cocher permettant de refuser l'utilisation de ces données dans les paramètres de confidentialité de X. Cette découverte s'est accompagnée d'une vague d'indignation quant à l'utilisation des données des utilisateurs.

Comme celui-ci qui déclare : « Twitter vient d'activer un paramètre par défaut pour tout le monde qui lui donne le droit d'utiliser vos données pour former grok. Ils ne l'ont jamais annoncé. Vous pouvez désactiver ce paramètre sur le web, mais il est caché. Vous ne pouvez pas le désactiver à partir de l'application mobile ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Twitter just activated a setting by default for everyone that gives them the right to use your data to train grok. They never announced it. You can disable this using the web but it's hidden. You can't disable using the mobile app<br><br>Direct link: <a href="https://t.co/lvinBlQoHC">https://t.co/lvinBlQoHC</a> <a href="https://t.co/LqiO0tyvZG">pic.twitter.com/LqiO0tyvZG</a></p>— Kimmy Bestie of Bunzy, Co-CEO Execubetch™️ (@EasyBakedOven) <a href="https://twitter.com/EasyBakedOven/status/1816696187765838146?ref_src=twsrc%5Etfw">July 26, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Le compte Safety de X a tweeté : « Tous les utilisateurs de X ont la possibilité de contrôler si leurs posts publics peuvent être utilisés pour former Grok, l'assistant de recherche IA ». Mais il n'a pas précisé quand l'option est devenue disponible ni quand la collecte de données a commencé. Pour l'instant, il n'est pas possible de désactiver cette option dans les applications mobiles, mais on peut le faire sur le web mobile, et X affirme que l'option sera bientôt disponible dans les applications.

« Tous les utilisateurs de X ont la possibilité de contrôler si leurs publications publiques peuvent être utilisées pour former Grok, l'assistant de recherche IA. Cette option s'ajoute aux contrôles existants sur l'utilisation de vos interactions, entrées et résultats liés à Grok. Ce paramètre est disponible sur la plateforme web et sera bientôt déployé sur mobile. Cette option de confidentialité est disponible dans les mêmes paramètres de confidentialité que ceux accessibles à tous les utilisateurs de X, ce qui la rend facilement accessible en quelques clics ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">All X users have the ability to control whether their public posts can be used to train Grok, the AI search assistant. This option is in addition to your existing controls over whether your interactions, inputs, and results related to Grok can be utilized. This setting is…</p>— Safety (@Safety) <a href="https://twitter.com/Safety/status/1816874083721838921?ref_src=twsrc%5Etfw">July 26, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

La politique de confidentialité de X le permet depuis au moins septembre 2023.

Il est de plus en plus courant que les données des utilisateurs soient utilisées de cette manière ; par exemple, Meta a fait la même chose avec le contenu de ses utilisateurs, et il y a eu un tollé lorsque Adobe a mis à jour ses conditions d'utilisation pour permettre ce genre de choses (Adobe a rapidement fait marche arrière et a promis de ne « jamais » entraîner l'IA générative sur le contenu des créateurs).

Comment désactiver Grok AI ?

Depuis la version Web :
  1. cliquez sur « Plus » dans le panneau de navigation
  2. cliquez sur « Paramètres et vie privée ».
  3. cliquez sur « Confidentialité et sécurité ».
  4. faites défiler vers le bas et cliquez sur « Grok » sous « Partage de données et personnalisation ».
  5. décochez la case « Permettre à vos posts ainsi qu'à vos interactions, saisies dans Grok et résultats associés d'être utilisés à des fins de formation et d'ajustement », qui est cochée par défaut.


Vous pouvez également suivre un lien (fourni en source) pour accéder directement à la page des paramètres et décocher la case en un seul clic. Si vous le souhaitez, vous pouvez également supprimer l'historique de vos conversations avec Grok ici, à condition que vous ayez déjà utilisé le chatbot.

Pourquoi cette controverse ?

L'entreprise n'a pas demandé le consentement de l'utilisateur ni même informé les utilisateurs avant d'activer l'entraînement à l'IA sur leurs posts X. De plus, le paramètre permettant de désactiver l'entraînement à l'IA n'est pas disponible sur l'application X. Il faudra passer par la version web de X pour le désactiver. Vous devrez passer à la version web de X pour le désactiver. Outre vos posts X, vos chats et vos interactions avec Grok AI peuvent également être utilisés pour entraîner son modèle d'IA.

Sur la page du centre d'aide de Grok, on peut lire : « Afin d'améliorer continuellement votre expérience, nous pouvons utiliser vos messages X ainsi que vos interactions avec Grok à des fins de formation et d'ajustement. Cela signifie également que lorsque vous interagissez avec Grok, vos interactions, entrées et résultats peuvent être utilisés pour former et améliorer les performances du système. »

En tant qu’utilisateurs, nous devons être conscients de ces pratiques et prendre des mesures pour protéger notre vie privée.

Conclusion

Il est essentiel que les entreprises technologiques adoptent une approche plus transparente et respectueuse de la vie privée lorsqu’il s’agit de collecter et d’utiliser les données des utilisateurs. Grok AI est un exemple de la nécessité d’un débat plus large sur l’éthique de l’IA et la protection des données personnelles. Il faut rappeler qu'OpenAI entraîne également son IA sur des chats privés avec ChatGPT. Heureusement, il existe désormais un moyen de refuser l'entraînement de l'IA par ChatGPT.

accéder directement à la page des paramètres

Source : Grok

Et vous ?

La confidentialité des données : Êtes-vous préoccupé par le fait que Grok AI utilise vos publications sans votre consentement explicite ? Pensez-vous que les entreprises devraient toujours opter pour un modèle « opt-in » plutôt que « opt-out » lorsqu’il s’agit d’utiliser les données des utilisateurs ?
L’éthique de l’intelligence artificielle : Quelles sont vos réflexions sur l’utilisation de l’intelligence artificielle pour analyser et interpréter nos données personnelles ? Devrions-nous exiger davantage de transparence et de contrôle sur la manière dont ces systèmes sont formés ?
La responsabilité des entreprises : Comment les entreprises devraient-elles gérer la collecte et l’utilisation des données de leurs utilisateurs ? Quelles mesures devraient-elles prendre pour garantir la protection de la vie privée tout en améliorant leurs services ?
L’avenir de la confidentialité en ligne : Pensez-vous que nous sommes en train de perdre le contrôle sur nos données personnelles à mesure que l’intelligence artificielle se développe ? Quelles solutions proposez-vous pour protéger notre vie privée à l’ère numérique ?
Vous avez lu gratuitement 40 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 20/06/2025 à 14:14
Oui enfin la c'est un cas particulier, au lieu d'utiliser des turbines performantes et agréés, son super Grok utilise des turbines de secours ultra polluantes, et qui empoisonnent les habitants aux alentour.

Avec ses milliards au lieu d'acheter twitter pour en faire de la merde, il aurait pu faire construire un parc solaire avec des batteries pour alimenter son truc, donc ça se voie que le Musk en a rien à foutre ni des gens ni de la planète. Ah oui il a dit qu'il allait abandonner la terre pour devenir le roi de Mars, enfin je ne sais pas s'il va oser un jour embarquer dans son Starship en carton. Jeff Bezos au moins lui il a osé embarquer dans sa fusée phallique, alors que Elon a jamais osé mettre les pieds dans une de ses fusées.
2  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 23/06/2025 à 2:54
Tu n'a pas compris le problème, c'est pas juste un problème de turbine à gaz banal c'est que l'installation d'Elon n'est pas classique, c'est de la pure merde inadmissible, c'est un pur assassinat de la population locale, un crime pour lequel il devrait être pendu haut et cours :


Elon Musk installe des turbines « rapides et sales » pour alimenter les centres de données de xAI à Memphis

xAI, la société d'IA d'Elon Musk, utilise des turbines mobiles au gaz naturel pour alimenter son nouveau centre de données Colossus à Memphis, dans le Tennessee, en raison de l'insuffisance de l'électricité fournie par le réseau local. Ces turbines, généralement utilisées en cas d'urgence, sont moins efficaces sur le plan énergétique et émettent plus de polluants que les centrales électriques classiques. L'utilisation de ces turbines par xAI sans autorisation appropriée a suscité l'inquiétude des journalistes locaux et des défenseurs de l'environnement. L'entreprise n'a déposé une demande de permis qu'en janvier 2025, plusieurs mois après que les turbines aient été mises en service, en vue d'obtenir une autorisation pour les turbines existantes et les projets d'en ajouter d'autres. Cette démarche a suscité des critiques en raison de son impact sur l'environnement et de son manque de transparence.

Le département de la santé du comté de Shelby n'a pas fixé de calendrier pour l'approbation des turbines, qui sont sur le point d'émettre une limite critique de formaldéhyde. Si les émissions dépassent 10 tonnes par an, le site sera considéré comme une "source majeure" de pollution, ce qui entraînera une réglementation plus stricte. xAI s'étend également à un deuxième site à Memphis, en utilisant probablement des turbines plus mobiles, ce qui exacerbera les problèmes environnementaux dans une zone déjà polluée. L'approche de l'entreprise a été critiquée pour son manque de respect envers la communauté locale, qui a toujours souffert de la pollution industrielle.

Principaux enseignements :
- xAI utilise des turbines mobiles au gaz naturel pour alimenter son centre de données Colossus à Memphis. Ces turbines sont généralement utilisées en cas d'urgence et sont peu respectueuses de l'environnement.
- xAI a exploité ces turbines sans les permis aériens requis, ce qui a donné lieu à des contestations juridiques et à une demande de permis retardée pour ajouter d'autres turbines.
- L'utilisation de turbines mobiles est une solution palliative en raison de la forte demande d'énergie et des retards dans la production de turbines fixes, bien qu'elles soient moins efficaces et plus polluantes.
2  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30
Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.

Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.


Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 21:09
Citation Envoyé par Ryu2000 Voir le message
Ouais mais ça ne va pas plaire à Disney.
Certes

D'ailleurs quand on y pense, les grosses multinationales de gestion des droits d'auteur (de Disney à Warner en passant par Sony) sont en train de se faire vraiment avoir ; pendant des années, on nous a fait ch*** avec le strict respect du droit d'auteur, désormais ces même pouvoir publiques deviennent très laxistes avec l'IA. La différence est que ce n'a jamais été des multinationales du numérique qui piratais du contenu... Alors qu'avec l'IA, les intérêts financiers ne sont plus les mêmes
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 23/08/2024 à 8:22
Citation Envoyé par Ryu2000 Voir le message
Il faut le temps que les lois se fassent, c'est un processus lent.
Je suis moins optimiste que toi là dessus.
Le problème n'est pas le temps législatif mais l'impunité de certains ou la capacité à répondre à ce système.

Je vais donner un exemple : il y a 7-8 ans les troupes d'improvisations théâtrale vers chez moi ont reçu des courriers ou des mails leur signalant qu'elles avaient violées les droits d'auteurs pendant certains de leurs évènements en diffusant au public des musiques qui n'étaient pas libre de droits (de mémoire on leur réclamait 75€ par évènements sur environ 1 an soit entre 300 et 1000€).
Certaines troupes ont décidé de payer vite pour éviter tout problème.
D'autres ont décidé de contester collectivement chaque évènement via courrier d'un avocat.
Une partie des évènements ont été retiré de la liste mais pour d'autres on a reçu la liste des musiques diffusées avec les heures de diffusion.
Je n'ai pas le détail de la suite mais s'en est suivi plusieurs échanges entre avocats pour que finalement ils renoncent à toute demande.

Là où je veux en venir est que si tu as les moyens (en l'occurrence un improvisateur avocat) et que tu pousses l'adversaire à dépenser plus en te répondant qu'il n'y gagnera à la fin, les poursuites sont abandonnées.
Les puissants ont quasiment moyens illimités sur ce genre de sujets stratégique pour eux (regarde les amendes données aux GAFAM qui se répètent tous les ans sans que rien ne change).
Ils sont factuellement au dessus de la loi parce qu'il est plus rentable pour eux de ne pas la respecter et de payer l'amende que de la respecter.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 31/08/2024 à 20:50


Mais quand même, quand je lis ceci:

Citation Envoyé par OrthodoxWindows Voir le message
Surtout pas, il s'agit d'une mesure totalement absurde, qui ne peut que conduire à la mort de l'IA générative. Même des IA très modérés peuvent générer du contenu pouvant tomber sous le coup de la loi, c'est impossible d'empêcher cela.
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.

Si tu vas au restaurant, que tu commandes un steak au poivre, et qu'on te sers une pizza avariée, tu vas la manger sans rien dire ? Ou bien tu vas réclamer au "responsable" de ce restaurant des explications ?

Si tu vas à l'hopital pour te faire retirer un furoncle, et qu'on te retire un testicule à la place, là non plus tu ne vas rien dire ?

Si c'est le cas, je ne peux que de t'applaudire Tu est le plus tolérant du monde.


Je ne vois pas pourquoi on devrait "absoudre" de toute responsabilités le "responsable" d'une IA qui "Hallucine" (je ne parle pas des développeurs, mais des éditeurs de ces IA, ceux qui gagnent du fric en vomissant un gloubiboulga en remixant ce qu'ils ont volé un peu partout sur le web).

Et si cela ne peut que conduire à la mort de l'IA générative, ça n'est pas le soucis, ça ne sera ni la première ni la dernière révolution qui ne mène nulle part. Le monde continuera de tourner.

Citation Envoyé par OrthodoxWindows Voir le message
Pour le reste, je ne vois pas en quoi Grok est particulièrement un problème, vu qu'il existe plusieurs modèles open-source, de plus en plus performant.

Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en expérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.

Si tu faisais de l'humour, je m'excuse sinon je vais tenter de rester "zen"

BàV et Peace & Love.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 31/08/2024 à 21:25
Citation Envoyé par OuftiBoy Voir le message
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.
1  0