IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

X accuse les utilisateurs d'être responsables des contenus pédopornographiques générés par Grok, aucune solution n'a été annoncée : quand une plateforme blâme ses utilisateurs plutôt que son algorithme

Le , par Stéphane le calme

0PARTAGES

6  0 
La plateforme X traverse une nouvelle zone de turbulences. Cette fois, la controverse ne porte ni sur la modération humaine, ni sur les changements de gouvernance, mais sur les dérives de Grok, son assistant d’intelligence artificielle maison, accusé d’avoir généré des contenus pédopornographiques. La réaction officielle de l’entreprise a surpris, voire choqué : X rejette la responsabilité sur les utilisateurs, sans annoncer de correctifs techniques immédiats.

Présenté comme un modèle d’IA « anti-woke », plus permissif et plus proche de la liberté d’expression revendiquée par X, Grok était censé se distinguer des assistants concurrents par une moindre censure et une plus grande franchise. Dans les faits, cette philosophie semble avoir ouvert une brèche grave. Des chercheurs et des utilisateurs ont démontré que Grok pouvait, via des requêtes détournées ou progressives, produire des descriptions relevant clairement de contenus sexuels impliquant des mineurs.

Dans la plupart des environnements d’IA générative, ce type de dérive est censé être bloqué par des garde-fous stricts, tant au niveau de l’entraînement que de l’inférence. Or, dans le cas de Grok, ces protections se sont révélées insuffisantes, voire inexistantes dans certains scénarios.

L'IA Grok d'Elon Musk déshabille tout le monde, des mineurs aux dirigeants mondiaux sans leur consentement

Il y a quelques jours, le réseau social X (ex-Twitter) d'Elon Musk a introduit un nouveau bouton « Modification d'image par IA » qui permet à tout utilisateur de modifier les images publiées par d'autres, même sans le consentement de l'auteur original. Les propriétaires des images ne sont pas informés lorsque des modifications sont apportées, et la fonctionnalité est activée par défaut pour tous sans une option de désactivation (du moins pour l'instant).

L'outil comprend des options permettant d'écrire des prompts, de prévisualiser les résultats et de partager l'image modifiée sur les pages de profil et le flux « Pour vous ». Le bouton apparaît sur tous les profils, qu'ils appartiennent à des utilisateurs réguliers, à des comptes vérifiés ou à des personnalités publiques.

Le lancement de cette fonctionnalité a suscité une vive réaction non seulement parmi les artistes et les photographes, qui voient leurs contenus protégés par le droit d'auteur utilisés et modifiés sans effort, mais aussi parmi des milliers d'utilisateurs lambda, en particulier des femmes dont les photos partagées sont modifiées sans leur consentement pour créer des scénarios suggestifs ou intrusifs, ce qui constitue une violation flagrante de la vie privée.

Dans un post, désormais supprimé, Grok a retouché une photo de deux jeunes filles vêtues de tenues légères et dans des poses sexuellement suggestives. Des responsables français ont réagi au problème posé par Grok et le contenu sexuel généré, notamment lorsque des images de mineurs ont été impliquées.

Une ligne de défense controversée : la faute aux utilisateurs

Nous prenons des mesures contre les contenus illégaux sur X, notamment les contenus pédopornographiques, en les supprimant, en suspendant définitivement les comptes et en collaborant avec les autorités locales et les forces de l'ordre si nécessaire.

Toute personne utilisant Grok ou incitant à la création de contenus illégaux s'expose aux mêmes sanctions que si elle téléchargeait elle-même de tels contenus.

Pour plus d'informations sur nos politiques, veuillez consulter nos pages d'aide pour prendre connaissance de l'intégralité du Règlement X et des différentes options de mise en application.
La réponse de X a consisté à affirmer que ces contenus résultaient d’un usage abusif de l’outil par des utilisateurs malveillants. Selon cette lecture, la responsabilité incomberait avant tout à ceux qui formulent les requêtes, et non à la plateforme ou au modèle d’IA lui-même. Cette position marque une rupture nette avec les standards émergents du secteur, où les éditeurs de modèles reconnaissent généralement une obligation de moyens en matière de prévention des usages criminels.

Pour de nombreux professionnels de l’informatique et de la sécurité, cet argumentaire pose un problème fondamental. Un système capable de produire ce type de contenu, même sous contrainte, révèle un défaut de conception ou de filtrage. Rejeter la faute sur l’utilisateur revient à nier la responsabilité du fournisseur dans la mise en production d’un outil potentiellement dangereux.


« C'est comme reprocher à un stylo d'écrire quelque chose de mauvais »

Le message de X Safety a relancé une discussion sur un autre fil de discussion de la plateforme, dans lequel Elon Musk, propriétaire de X, a réitéré les conséquences auxquelles s'exposent les utilisateurs en cas de suggestions inappropriées. Cette réponse faisait suite à un message d'un utilisateur de X, DogeDesigner, qui suggérait que Grok ne pouvait être tenu responsable de la « création d'images inappropriées », bien que Grok détermine lui-même ses propres résultats.

« C'est comme reprocher à un stylo d'écrire quelque chose de mauvais », a estimé DogeDesigner. « Un stylo ne décide pas de ce qui est écrit. C'est la personne qui le tient qui décide. Grok fonctionne de la même manière. Ce que vous obtenez dépend beaucoup de ce que vous entrez. »

Mais les générateurs d'images comme Grok ne sont pas obligés de produire exactement ce que l'utilisateur souhaite, comme un stylo. L'une des raisons pour lesquelles le Bureau du droit d'auteur n'autorise pas l'enregistrement des œuvres générées par l'IA est l'absence d'intervention humaine dans la détermination des résultats produits par les générateurs d'images IA. Les chatbots sont également non déterministes, générant des résultats différents pour une même requête.

C'est pourquoi, pour de nombreux utilisateurs qui se demandent pourquoi X ne filtre pas les contenus pédopornographiques en réponse aux générations de Grok, la réponse de X semble loin de résoudre le problème en rendant les utilisateurs seuls responsables des résultats.

Dans un commentaire sur le fil de discussion DogeDesigner, un programmeur informatique a souligné que les utilisateurs de X pouvaient générer par inadvertance des images inappropriées. En août dernier, par exemple, Grok a généré des images de Taylor Swift nue sans qu'on le lui ait demandé. Ces utilisateurs ne peuvent même pas supprimer les images problématiques du compte Grok pour empêcher leur diffusion, a fait remarquer le programmeur. Dans ce scénario, l'utilisateur X pourrait risquer la suspension de son compte ou une responsabilité juridique si les forces de l'ordre intervenaient, selon la réponse de X Safety, sans que X n'ait jamais à rendre compte de résultats inattendus.

Les internautes appellent Apple à agir si X ne prend pas des mesures pour Grok

De nombreux médias ont étrangement pris Grok au mot lorsque le chatbot a répondu aux demandes d'excuses en affirmant que X allait améliorer ses mesures de sécurité. Mais la réponse de X Safety semble désormais contredire le chatbot.

Alors que la réponse de X continue de décevoir les détracteurs, certains commentateurs influents sur le post de X Safety ont appelé Apple à prendre des mesures si X ne le fait pas. Ils ont suggéré que X pourrait enfreindre les règles de l'App Store interdisant les applications permettant aux utilisateurs de créer du contenu qui objectifie des personnes réelles. Selon les détracteurs, tant que Grok ne commencera pas à filtrer de manière transparente les contenus pédopornographiques ou autres contenus « déshabillant » des personnes réelles sans leur consentement, le chatbot et X devraient être interdits.

Une interdiction de l'App Store risquerait de mettre Musk en colère, qui a poursuivi Apple en justice l'année dernière, en partie à cause de sa frustration que l'App Store n'ait jamais inscrit Grok sur sa liste d'applications « incontournables ». Dans ce procès en cours, Musk a allégué que la prétendue préférence d'Apple pour ChatGPT dans l'App Store avait empêché Grok de rattraper son retard sur le marché des chatbots. Cela suggère qu'une interdiction de l'App Store pourrait potentiellement condamner la quête de Grok pour dépasser ChatGPT.

Un risque juridique et réputationnel sous-estimé

La production de contenus pédopornographiques n’est pas une simple entorse aux règles communautaires : il s’agit d’un crime lourdement sanctionné dans la quasi-totalité des juridictions. En laissant entendre que le problème relève uniquement de l’usage, X s’expose à des risques juridiques considérables, notamment en Europe où la responsabilité des plateformes et des fournisseurs de technologies est de plus en plus encadrée.

Au-delà du droit, l’impact réputationnel est potentiellement dévastateur. Pour les annonceurs, les partenaires technologiques et même les développeurs internes, être associé à un outil d’IA impliqué dans de telles dérives constitue un signal d’alarme majeur.

Une stratégie cohérente avec la vision Musk, mais à quel prix ?

Cette posture s’inscrit dans la continuité de la vision défendue par Elon Musk, qui privilégie une interprétation maximaliste de la liberté d’expression et se montre sceptique vis-à-vis des mécanismes de modération centralisés. Appliquée à l’IA générative, cette philosophie atteint toutefois ses limites. La liberté d’expression ne peut servir de paravent à la diffusion ou à la production de contenus criminels, surtout lorsqu’ils sont générés automatiquement par des systèmes industriels.

Pour les professionnels de l’IT, l’affaire Grok agit comme un révélateur. Elle met en lumière la tension croissante entre innovation rapide, positionnement idéologique et responsabilités techniques. Elle rappelle surtout qu’un modèle d’IA n’est jamais neutre : il reflète les choix, les arbitrages et les priorités de ceux qui le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/01/2026 à 4:30
Je suis d'accord avec lui sur le principe : c'est celui qui fait la requête qui doit être tenu pour responsable.
Là où la responsabilité de l'éditeur de Grok doit être engagée, c'est quand l'image produite ne correspond pas à la requête.
Si la personne demande du CSAM, c'est à elle de se prendre les pénalités.
Si la personne n'en demande pas mais Grok en produit, c'est à l'éditeur de se les prendre.
L'éditeur doit s'assurer de la fiabilité de ce qu'il fournit, mais pas de ce que l'utilisateur en fait.
Et si Grok produit des images ne correspondant pas à la requête, une circonstance aggravante contre l'éditeur est qu'il ne fournisse pas de moyen de corriger, comme supprimer l'image mal générée.

Donc oui sur le fond, il a raison, mais qu'il s'assure au moins de fournir un outil qui fonctionne comme demandé et, pour les cas où ça ne correspond pas (qui arrivent forcément étant donné la techno), les capacités de correction minimales qu'il se doit d'implémenter (e.g. suppression d'image). Autrement il a quand même sa part de responsabilité.
6  2 
Avatar de David_g
Membre éprouvé https://www.developpez.com
Le 07/01/2026 à 10:08
Citation Envoyé par jnspunk Voir le message
C'est faux, on ne peut pas empêcher le "jailbreak".
Vouloir "corriger" Grok c'est comme repeindre son mur au lieu de réparer la fuite d'eau qu'il y a derrière : ce n'est pas l'idée la plus brillante.
Cela revient à dire qu'il ne faut pas mettre de serrure sur tes portes car on peut facilement les ouvrir.
En soi, peu de gens finalement feront l'effort ou auront les compétences pour. c'est un peu pareil pour ces deepfakes etc, dés que tu enleves les solutions qui ne demande aucun effort, tu réduis de beaucoup le nombre de cas.

Ici n'importe quel glandu peut mettre n'importe quelle nana à quatre pattes en string etc (beaucoup d'entre eux ont un compte payant et donc cherche aussi des vues comme le mec qui a fait cela à la première ministre suédoise)

S'il devait aller chercher des modèles d'IA, installer un générateur en local etc ou si cela lui demande de comprendre comment aller chercher des solutions pour "hacker" le prompt, 90% ne feront pas l'effort. c'est d'ailleurs le cas pour un photomontage, tu vois personne prendre le temps de se former à toshop/gimp pour réussir à voir quelque chose de qualité parce que cela trop d'effort. tu ajouterais une option dans toshop pour cela, ben bizarrement on en verra plus (alors certes c'est en local donc tu le sauras pas).
6  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 07/01/2026 à 13:00
Citation Envoyé par Stéphane le calme Voir le message
Faut-il attendre une intervention judiciaire ou réglementaire pour forcer des correctifs, ou l’autorégulation des plateformes d’IA est-elle déjà un mythe dépassé ?
Si il n'existe aucune loi qui interdit à quelqu'un de dessiner ou de faire un photo montage d'une personne réelle en bikini alors il faudra créer de nouvelles lois.

Si un état créait une loi pour interdire de créer une image d'une personne réelle en bikini, alors Grok serait obligé d'interdire cette action dans ce pays.
1  0 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 07/01/2026 à 10:44
Citation Envoyé par Matthieu Vergne Voir le message
Je suis d'accord avec lui sur le principe : c'est celui qui fait la requête qui doit être tenu pour responsable.
C'est un peu plus compliqué que ça, on a déjà des réglementation sur les produits potentiellement dangereux.

Citation Envoyé par Matthieu Vergne Voir le message
Si la personne demande du CSAM, c'est à elle de se prendre les pénalités.
L'un n'exclut pas forcément l'autre. Pour beaucoup de produits potentiellement problématique, il est tout autant interdit de les fournir que les utiliser hors contrôle légal.

Citation Envoyé par jnspunk Voir le message
Vouloir "corriger" Grok c'est comme repeindre son mur au lieu de réparer la fuite d'eau qu'il y a derrière : ce n'est pas l'idée la plus brillante.
Certes mais en même temps on agit au niveau où on peut. Les verrous ne servent normalement a rien si on règle le problème des voleurs, mais on fait avec parce que on a pas de moyen efficace de repérer et arrêter les voleurs à priori.
3  3 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 07/01/2026 à 11:21
Citation Envoyé par David_g Voir le message
Cela revient à dire qu'il ne faut pas mettre de serrure sur tes portes car on peut facilement les ouvrir.
En soi, peu de gens finalement feront l'effort ou auront les compétences pour. c'est un peu pareil pour ces deepfakes etc, dés que tu enleves les solutions qui ne demande aucun effort, tu réduis de beaucoup le nombre de cas.

Ici n'importe quel glandu peut mettre n'importe quelle nana à quatre pattes en string etc (beaucoup d'entre eux ont un compte payant et donc cherche aussi des vues comme le mec qui a fait cela à la première ministre suédoise)

S'il devait aller chercher des modèles d'IA, installer un générateur en local etc ou si cela lui demande de comprendre comment aller chercher des solutions pour "hacker" le prompt, 90% ne feront pas l'effort. c'est d'ailleurs le cas pour un photomontage, tu vois personne prendre le temps de se former à toshop/gimp pour réussir à voir quelque chose de qualité parce que cela trop d'effort. tu ajouterais une option dans toshop pour cela, ben bizarrement on en verra plus (alors certes c'est en local donc tu le sauras pas).
Il y a déjà des sécurités : Grok ne vous dira pas comment fabriquer une bombe ou dénuder des enfants.
D'ailleurs, ça pointe les limites des algos de détection d'âge (qui sont pourtant utilisé sur les sites +18 pour vérifier votre âge, puis bientôt sur les réseaux sociaux) qui ne marche pas sur les jeunes de 16 ans.
Deux poids, deux mesures ... (Après, on a tous compris que le but c'est la surveillance sous prétexte de "protection des enfants", ils demanderont ensuite l'identite numérique).

Le mec qui a un compte "payant" peut être retrouvé, non ? C'est à la Police de faire son travail donc.

Ensuite, ChatGPT peut dénuder aussi comme Grok, suffit de dire que c'est "vous" ... Et visiblement, c'est ce qui a été utilisé ensuite. Comment savoir quelle requête légitime ou non dans ce cas ?

Concernant la "facilité", c'est un argument ridicule qui n'a aucune valeur : Ce qui est interdit, est interdit, peu importe que ça soit facile ou pas. C'est à l’État de faire sont travail et de faire respecter la loi !
=> D'ailleurs, la comparaison avec le "voleur" est fausse : On ne connait pas l'identité du voleur, mais celle des utilisateurs de Grok est connu (compte vérifié !)

On n'a pas attendu Grok pour voir des montages de ministres ou autre en maillot de bain.
2  2 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 07/01/2026 à 11:58
Mon analogie: si quelqu’un tue avec une voiture bélier, qui devrait être condamnée le fabricant ou celui qui tenait le volant ?
2  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 07/01/2026 à 12:14
Citation Envoyé par der§en Voir le message
Mon analogie: si quelqu’un tue avec une voiture bélier, qui devrait être condamnée le fabricant ou celui qui tenait le volant ?
On sait depuis les années 80 que les analogies entre les voitures et l'informatique ne tiennent pas la route. Celle-ci pas plus que les autres, désolé.

2  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 07/01/2026 à 14:37
Citation Envoyé par foetus Voir le message
pourtant il y a 1 exemple qui existe depuis au moins 8 ans en informatique/ voiture pas encore répondu : si 1 conducteur se tue avec son auto-pilot qui est responsable ?
  • le conducteur
  • le constructeur de la voiture
  • la société qui a programmé l'auto-pilot
Ce cas là est très intéressant. Mais il n'entre pas vraiment dans la même catégorie.
Tout dépend du niveau d'autonomie du véhicule.
Si on parle de véhicule entièrement autonome (pour l'instant, malgré les dires de Musk, ça n'existe pas), alors la responsabilité revient forcément au fabricant.
Dans tous les autres cas, c'est plus ou moins compliqué. Mais, une part de la responsabilité (plus ou moins importante) revient au conducteur.
1  1 
Avatar de Marmounet
Nouveau membre du Club https://www.developpez.com
Le 07/01/2026 à 19:52
Le fait d'être responsable ou non est de considérer X comme un media ou non.
S'il est considéré comme un media (ce que je pense) alors il est responsable de ce qui est diffusé. Il doit donc être pénalisé. A lui de vérifier les articles dont il assure la diffusion.
Autre chose pour le contrôle qu'il doit avoir.
Dans mon métier j'ai une obligation de résultats. Pour qu'elle raison n'a-t-il pas une obligation de résultats et non pas une obligation de moyen ?
Cette obligation de résultats couperai court à toute polémique.
0  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 07/01/2026 à 12:42
Citation Envoyé par der§en Voir le message
Mon analogie: si quelqu’un tue avec une voiture bélier, qui devrait être condamnée le fabricant ou celui qui tenait le volant ?
Ils vous diront qu'il fallait mettre des sécurités dans les voitures, un détecteur, pleins d’électronique, la relier à Internet ect ect ... Histoire de bien plomber l'économie, de figer le marché et mettre pleins de barrière à l'entré.
Mais jamais, ô jamais, pointer la responsabilité du conducteur.
1  2