IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

X accuse les utilisateurs d'être responsables des contenus pédopornographiques générés par Grok, aucune solution n'a été annoncée : quand une plateforme blâme ses utilisateurs plutôt que son algorithme

Le , par Stéphane le calme

7PARTAGES

6  0 
La plateforme X traverse une nouvelle zone de turbulences. Cette fois, la controverse ne porte ni sur la modération humaine, ni sur les changements de gouvernance, mais sur les dérives de Grok, son assistant d’intelligence artificielle maison, accusé d’avoir généré des contenus pédopornographiques. La réaction officielle de l’entreprise a surpris, voire choqué : X rejette la responsabilité sur les utilisateurs, sans annoncer de correctifs techniques immédiats.

Présenté comme un modèle d’IA « anti-woke », plus permissif et plus proche de la liberté d’expression revendiquée par X, Grok était censé se distinguer des assistants concurrents par une moindre censure et une plus grande franchise. Dans les faits, cette philosophie semble avoir ouvert une brèche grave. Des chercheurs et des utilisateurs ont démontré que Grok pouvait, via des requêtes détournées ou progressives, produire des descriptions relevant clairement de contenus sexuels impliquant des mineurs.

Dans la plupart des environnements d’IA générative, ce type de dérive est censé être bloqué par des garde-fous stricts, tant au niveau de l’entraînement que de l’inférence. Or, dans le cas de Grok, ces protections se sont révélées insuffisantes, voire inexistantes dans certains scénarios.

L'IA Grok d'Elon Musk déshabille tout le monde, des mineurs aux dirigeants mondiaux sans leur consentement

Il y a quelques jours, le réseau social X (ex-Twitter) d'Elon Musk a introduit un nouveau bouton « Modification d'image par IA » qui permet à tout utilisateur de modifier les images publiées par d'autres, même sans le consentement de l'auteur original. Les propriétaires des images ne sont pas informés lorsque des modifications sont apportées, et la fonctionnalité est activée par défaut pour tous sans une option de désactivation (du moins pour l'instant).

L'outil comprend des options permettant d'écrire des prompts, de prévisualiser les résultats et de partager l'image modifiée sur les pages de profil et le flux « Pour vous ». Le bouton apparaît sur tous les profils, qu'ils appartiennent à des utilisateurs réguliers, à des comptes vérifiés ou à des personnalités publiques.

Le lancement de cette fonctionnalité a suscité une vive réaction non seulement parmi les artistes et les photographes, qui voient leurs contenus protégés par le droit d'auteur utilisés et modifiés sans effort, mais aussi parmi des milliers d'utilisateurs lambda, en particulier des femmes dont les photos partagées sont modifiées sans leur consentement pour créer des scénarios suggestifs ou intrusifs, ce qui constitue une violation flagrante de la vie privée.

Dans un post, désormais supprimé, Grok a retouché une photo de deux jeunes filles vêtues de tenues légères et dans des poses sexuellement suggestives. Des responsables français ont réagi au problème posé par Grok et le contenu sexuel généré, notamment lorsque des images de mineurs ont été impliquées.

Une ligne de défense controversée : la faute aux utilisateurs

Nous prenons des mesures contre les contenus illégaux sur X, notamment les contenus pédopornographiques, en les supprimant, en suspendant définitivement les comptes et en collaborant avec les autorités locales et les forces de l'ordre si nécessaire.

Toute personne utilisant Grok ou incitant à la création de contenus illégaux s'expose aux mêmes sanctions que si elle téléchargeait elle-même de tels contenus.

Pour plus d'informations sur nos politiques, veuillez consulter nos pages d'aide pour prendre connaissance de l'intégralité du Règlement X et des différentes options de mise en application.
La réponse de X a consisté à affirmer que ces contenus résultaient d’un usage abusif de l’outil par des utilisateurs malveillants. Selon cette lecture, la responsabilité incomberait avant tout à ceux qui formulent les requêtes, et non à la plateforme ou au modèle d’IA lui-même. Cette position marque une rupture nette avec les standards émergents du secteur, où les éditeurs de modèles reconnaissent généralement une obligation de moyens en matière de prévention des usages criminels.

Pour de nombreux professionnels de l’informatique et de la sécurité, cet argumentaire pose un problème fondamental. Un système capable de produire ce type de contenu, même sous contrainte, révèle un défaut de conception ou de filtrage. Rejeter la faute sur l’utilisateur revient à nier la responsabilité du fournisseur dans la mise en production d’un outil potentiellement dangereux.


« C'est comme reprocher à un stylo d'écrire quelque chose de mauvais »

Le message de X Safety a relancé une discussion sur un autre fil de discussion de la plateforme, dans lequel Elon Musk, propriétaire de X, a réitéré les conséquences auxquelles s'exposent les utilisateurs en cas de suggestions inappropriées. Cette réponse faisait suite à un message d'un utilisateur de X, DogeDesigner, qui suggérait que Grok ne pouvait être tenu responsable de la « création d'images inappropriées », bien que Grok détermine lui-même ses propres résultats.

« C'est comme reprocher à un stylo d'écrire quelque chose de mauvais », a estimé DogeDesigner. « Un stylo ne décide pas de ce qui est écrit. C'est la personne qui le tient qui décide. Grok fonctionne de la même manière. Ce que vous obtenez dépend beaucoup de ce que vous entrez. »

Mais les générateurs d'images comme Grok ne sont pas obligés de produire exactement ce que l'utilisateur souhaite, comme un stylo. L'une des raisons pour lesquelles le Bureau du droit d'auteur n'autorise pas l'enregistrement des œuvres générées par l'IA est l'absence d'intervention humaine dans la détermination des résultats produits par les générateurs d'images IA. Les chatbots sont également non déterministes, générant des résultats différents pour une même requête.

C'est pourquoi, pour de nombreux utilisateurs qui se demandent pourquoi X ne filtre pas les contenus pédopornographiques en réponse aux générations de Grok, la réponse de X semble loin de résoudre le problème en rendant les utilisateurs seuls responsables des résultats.

Dans un commentaire sur le fil de discussion DogeDesigner, un programmeur informatique a souligné que les utilisateurs de X pouvaient générer par inadvertance des images inappropriées. En août dernier, par exemple, Grok a généré des images de Taylor Swift nue sans qu'on le lui ait demandé. Ces utilisateurs ne peuvent même pas supprimer les images problématiques du compte Grok pour empêcher leur diffusion, a fait remarquer le programmeur. Dans ce scénario, l'utilisateur X pourrait risquer la suspension de son compte ou une responsabilité juridique si les forces de l'ordre intervenaient, selon la réponse de X Safety, sans que X n'ait jamais à rendre compte de résultats inattendus.

Les internautes appellent Apple à agir si X ne prend pas des mesures pour Grok

De nombreux médias ont étrangement pris Grok au mot lorsque le chatbot a répondu aux demandes d'excuses en affirmant que X allait améliorer ses mesures de sécurité. Mais la réponse de X Safety semble désormais contredire le chatbot.

Alors que la réponse de X continue de décevoir les détracteurs, certains commentateurs influents sur le post de X Safety ont appelé Apple à prendre des mesures si X ne le fait pas. Ils ont suggéré que X pourrait enfreindre les règles de l'App Store interdisant les applications permettant aux utilisateurs de créer du contenu qui objectifie des personnes réelles. Selon les détracteurs, tant que Grok ne commencera pas à filtrer de manière transparente les contenus pédopornographiques ou autres contenus « déshabillant » des personnes réelles sans leur consentement, le chatbot et X devraient être interdits.

Une interdiction de l'App Store risquerait de mettre Musk en colère, qui a poursuivi Apple en justice l'année dernière, en partie à cause de sa frustration que l'App Store n'ait jamais inscrit Grok sur sa liste d'applications « incontournables ». Dans ce procès en cours, Musk a allégué que la prétendue préférence d'Apple pour ChatGPT dans l'App Store avait empêché Grok de rattraper son retard sur le marché des chatbots. Cela suggère qu'une interdiction de l'App Store pourrait potentiellement condamner la quête de Grok pour dépasser ChatGPT.

Un risque juridique et réputationnel sous-estimé

La production de contenus pédopornographiques n’est pas une simple entorse aux règles communautaires : il s’agit d’un crime lourdement sanctionné dans la quasi-totalité des juridictions. En laissant entendre que le problème relève uniquement de l’usage, X s’expose à des risques juridiques considérables, notamment en Europe où la responsabilité des plateformes et des fournisseurs de technologies est de plus en plus encadrée.

Au-delà du droit, l’impact réputationnel est potentiellement dévastateur. Pour les annonceurs, les partenaires technologiques et même les développeurs internes, être associé à un outil d’IA impliqué dans de telles dérives constitue un signal d’alarme majeur.

Une stratégie cohérente avec la vision Musk, mais à quel prix ?

Cette posture s’inscrit dans la continuité de la vision défendue par Elon Musk, qui privilégie une interprétation maximaliste de la liberté d’expression et se montre sceptique vis-à-vis des mécanismes de modération centralisés. Appliquée à l’IA générative, cette philosophie atteint toutefois ses limites. La liberté d’expression ne peut servir de paravent à la diffusion ou à la production de contenus criminels, surtout lorsqu’ils sont générés automatiquement par des systèmes industriels.

Pour les professionnels de l’IT, l’affaire Grok agit comme un révélateur. Elle met en lumière la tension croissante entre innovation rapide, positionnement idéologique et responsabilités techniques. Elle rappelle surtout qu’un modèle d’IA n’est jamais neutre : il reflète les choix, les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 12/01/2026 à 9:00
Citation Envoyé par J_P_P Voir le message
Bonjour,
Il est simple d'accuser l'outil et de faire du Musk-washing ...
Si j'écrase quelqu'un avec mon véhicule le constructeur doit-il être tenu pour responsable.
On a déjà dit et redit que ça ne fonctionne pas les analogies voitures/informatique !

Dans ton cas, le constructeur n'a pas donné comme fonction à son véhicule d'écraser quelqu'un.
Là, on a un logiciel qui permet de réaliser quelque chose d'illégale. C'est donc bien les concepteurs et distributeurs du logiciel qui sont responsables de la production.
Ils ne sont pas responsables de la diffusion.
Mais, là, encore, le support de diffusion se retrouve être le même Musk, et là encore, il ne respecte pas les lois qui interdisent de diffuser ce genre de photos.

Qu'est-ce que vous voulez de plus ?
7  1 
Avatar de David_g
Membre éprouvé https://www.developpez.com
Le 07/01/2026 à 10:08
Citation Envoyé par jnspunk Voir le message
C'est faux, on ne peut pas empêcher le "jailbreak".
Vouloir "corriger" Grok c'est comme repeindre son mur au lieu de réparer la fuite d'eau qu'il y a derrière : ce n'est pas l'idée la plus brillante.
Cela revient à dire qu'il ne faut pas mettre de serrure sur tes portes car on peut facilement les ouvrir.
En soi, peu de gens finalement feront l'effort ou auront les compétences pour. c'est un peu pareil pour ces deepfakes etc, dés que tu enleves les solutions qui ne demande aucun effort, tu réduis de beaucoup le nombre de cas.

Ici n'importe quel glandu peut mettre n'importe quelle nana à quatre pattes en string etc (beaucoup d'entre eux ont un compte payant et donc cherche aussi des vues comme le mec qui a fait cela à la première ministre suédoise)

S'il devait aller chercher des modèles d'IA, installer un générateur en local etc ou si cela lui demande de comprendre comment aller chercher des solutions pour "hacker" le prompt, 90% ne feront pas l'effort. c'est d'ailleurs le cas pour un photomontage, tu vois personne prendre le temps de se former à toshop/gimp pour réussir à voir quelque chose de qualité parce que cela trop d'effort. tu ajouterais une option dans toshop pour cela, ben bizarrement on en verra plus (alors certes c'est en local donc tu le sauras pas).
7  2 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/01/2026 à 4:30
Je suis d'accord avec lui sur le principe : c'est celui qui fait la requête qui doit être tenu pour responsable.
Là où la responsabilité de l'éditeur de Grok doit être engagée, c'est quand l'image produite ne correspond pas à la requête.
Si la personne demande du CSAM, c'est à elle de se prendre les pénalités.
Si la personne n'en demande pas mais Grok en produit, c'est à l'éditeur de se les prendre.
L'éditeur doit s'assurer de la fiabilité de ce qu'il fournit, mais pas de ce que l'utilisateur en fait.
Et si Grok produit des images ne correspondant pas à la requête, une circonstance aggravante contre l'éditeur est qu'il ne fournisse pas de moyen de corriger, comme supprimer l'image mal générée.

Donc oui sur le fond, il a raison, mais qu'il s'assure au moins de fournir un outil qui fonctionne comme demandé et, pour les cas où ça ne correspond pas (qui arrivent forcément étant donné la techno), les capacités de correction minimales qu'il se doit d'implémenter (e.g. suppression d'image). Autrement il a quand même sa part de responsabilité.
6  2 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 8:05
Citation Envoyé par Ryu2000 Voir le message
Apparemment d'autres plateformes permettent de faire exactement la même chose et Keir Starmer fait semblant que ce n'est pas le cas.
L'histoire des bikinis c'est un prétexte pour attaquer X.
Combien d'évènements liés à Gémini ou ChatGPT ont mené à dénuder des milliers de personnes et à diffuser ces images en quelques jours?

Je pense que nous l'avons suffisamment dit plus haut, le problème n'est pas tant la capacité de le faire mais : la facilité, la qualité du résultat (ce que Gemini et ChatGPT semblent capables de faire) et la capacité de diffusion à grande échelle immédiate (Ce que Gemini et ChatGPT ne font pas).

Donc bien sur que cette histoire est un moyen de s'attaquer au média de harcèlement à grande échelle le plus efficace que l'histoire humaine a connu.
Citation Envoyé par Artaeus Voir le message
Non, ils ne veulent pas écouter, discuter ou débattre.
On peut critiquer Musk, mais le faire en utilisant toutes la mauvaise foi, l'hypocrisie et l'ignorance possible c'est juste ridicule (notamment sur ce sujet).
Mais nous vous écoutons, nous en discutons et nous essayons d'en débattre, ce qui est beaucoup plus compliqué parce que nous ne partons pas du même point de départ.
On peut soutenir Musk, mais le faire en utilisant toutes la mauvaise foi, l'hypocrisie et l'ignorance possible c'est juste ridicule (notamment sur ce sujet), la balle est facile à retourner
Citation Envoyé par J_P_P Voir le message
Ce genre de remarque est juste un encouragement à une sorte d'auto-censure des logiiels d'IA, mais la censure est-elle une solution car elle peut aussi être considérée comme une déviation grave d'un outil en "cachant" une partie des informations ...
Doit-il y avoir de la censure au sein même des IA?
J'en suis convaincu, il me semble évident qu'une IA ne doit pas encourager à (se) donner la mort, ne doit pas créer d'éléments pédophiles etc...
Et pourtant je pense qu'on doit vivre avec le fait qu'il existera toujours des moyens de détourner pour arriver à ces objectifs.
Et pourtant je crois que ces sujets ne doivent pas être tabou dans l'IA (genre éviter les attitudes à la Deepseek qui s'arrête de fonctionner quand on parle de Taiwan) parce que pouvoir en parler et aussi un moyen de prévenir les évènements catastrophiques.

Je pense que le vrai débat est : devons nous relier une IA et un réseau social directement?
Ma réponse est clairement non parce que l'IA et une machine à créer de l'information approximative et le réseau social est un moyen de la diffuser à grande échelle avec le minimum d'effort.
Nous sommes dans une société où une partie des drames qui arrivent ne sont pas dûs à une seule cause mais à la combinaison de plusieurs. Et je penses qu'il est malhonnête de ne s'attaquer qu'à l'une. Et je pense que ça l'est d'autant plus d'utiliser l'une pour dédouaner l'autre.
5  1 
Avatar de BenoitM
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 8:08
Citation Envoyé par J_P_P Voir le message
Bonjour,
Si j'écrase quelqu'un avec mon véhicule le constructeur doit-il être tenu pour responsable.
Non, par contre le constructeur doit respecter des normes : sécurité, de pollution, ...

Citation Envoyé par J_P_P Voir le message
Si j'envoie un mail d'insultes, le service de mail peut-il être tenu pour responsable ?
Non car le service mail ne publie pas les informations. Mais un journal lui est responsable s'il publie votre lettre
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 12/01/2026 à 16:00
Citation Envoyé par Mingolito Voir le message
Dans la pratique c'est pas pareil
Il est complètement possible de demander à ChatGPT ou Gemini de faire une photo et de la poster sur un réseau social comme Bluesky, Mastodon, ou même Twitter.

On reproche à Grok de générer des images de gens en Bikini ?
On reproche à X de permettre à des gens de diffuser des images, généré par l'IA, de gens en Bikini ?

Les alternatives à Grok permettent la même chose.
Des alternatives à X permettent la même chose.

Il y a une différence de traitement.
4  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/01/2026 à 12:31
Il y en a marre de ces politicards. ces autorités, ces administrations diverses et variées qui n'ont pas de couilles et qui prennent le public pour des imbéciles!

Arrêtez avec vos pseudo-menaces qui finissent toujours en eau de boudin... Ce n'est rien d'autre que de la communication dont tout le monde se fout!

Soit vous interdisez, soit vous n'interdisez pas mais dans tous les cas... Fermez là et arrêtez de communiquer dans le vide pour le plaisir de... communiquer!

Pour le lecteur, quand vous avez une info du style "... on menace de...", il faut lire "on ne fera rien"
2  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/01/2026 à 12:41
Notons que c'est en Asie où ils n'en sont plus au stade de la menace mais ont purement et simplement interdit Grok, notamment l'Indonésie. Mais l'Inde aussi où X a censuré des milliers de posts et des centaines de comptes sont supprimés. Les victimes doivent en être bienheureuses mais cela n'enlève rien à la néfaste fonctionnalité de l'IA. Une mesure conservatoire oblige X en France de conserver les contenus en cause pour poursuites judiciaires. Au nom de la liberté d'expression, doit-on laisser des femmes souvent mineures se laisser déshabiller ainsi ? Je ne pense pas. C'est interdit par la loi alors qu'aller à la piscine en maillot de bain ne revient pas au même puisqu'il s'agit d'une décision prise librement.

edit : donc je ne parlerai pas de prétexte mais d'application de la loi

edit 2 :
Citation Envoyé par Anselme45 Voir le message
Il y en a marre de ces politicards. ces autorités, ces administrations diverses et variées qui n'ont pas de couilles et qui prennent le public pour des imbéciles!

Arrêtez avec vos pseudo-menaces qui finissent toujours en eau de boudin... Ce n'est rien d'autre que de la communication dont tout le monde se fout!

Soit vous interdisez, soit vous n'interdisez pas mais dans tous les cas... Fermez là et arrêtez de communiquer dans le vide pour le plaisir de... communiquer!

Pour le lecteur, quand vous avez une info du style "... on menace de...", il faut lire "on ne fera rien"
Je ne dirai pas qu'ils ne veulent rien faire mais ils menacent d'interdiction pour remettre X et Musk dans le droit chemin sinon ils interdisent. Donc ils n'interdiront peut-être pas à condition que des mesures soient prises pour éviter des atteintes à la vie privée de victimes. A noter qu'un recensement a été fait et cela concerne 10% d'hommes aussi. Pas que des femmes.
2  0 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 07/01/2026 à 10:44
Citation Envoyé par Matthieu Vergne Voir le message
Je suis d'accord avec lui sur le principe : c'est celui qui fait la requête qui doit être tenu pour responsable.
C'est un peu plus compliqué que ça, on a déjà des réglementation sur les produits potentiellement dangereux.

Citation Envoyé par Matthieu Vergne Voir le message
Si la personne demande du CSAM, c'est à elle de se prendre les pénalités.
L'un n'exclut pas forcément l'autre. Pour beaucoup de produits potentiellement problématique, il est tout autant interdit de les fournir que les utiliser hors contrôle légal.

Citation Envoyé par jnspunk Voir le message
Vouloir "corriger" Grok c'est comme repeindre son mur au lieu de réparer la fuite d'eau qu'il y a derrière : ce n'est pas l'idée la plus brillante.
Certes mais en même temps on agit au niveau où on peut. Les verrous ne servent normalement a rien si on règle le problème des voleurs, mais on fait avec parce que on a pas de moyen efficace de repérer et arrêter les voleurs à priori.
4  3 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 07/01/2026 à 12:14
Citation Envoyé par der§en Voir le message
Mon analogie: si quelqu’un tue avec une voiture bélier, qui devrait être condamnée le fabricant ou celui qui tenait le volant ?
On sait depuis les années 80 que les analogies entre les voitures et l'informatique ne tiennent pas la route. Celle-ci pas plus que les autres, désolé.

3  2