IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

X accuse les utilisateurs d'être responsables des contenus pédopornographiques générés par Grok, aucune solution n'a été annoncée : quand une plateforme blâme ses utilisateurs plutôt que son algorithme

Le , par Stéphane le calme

63PARTAGES

6  0 
La plateforme X traverse une nouvelle zone de turbulences. Cette fois, la controverse ne porte ni sur la modération humaine, ni sur les changements de gouvernance, mais sur les dérives de Grok, son assistant d’intelligence artificielle maison, accusé d’avoir généré des contenus pédopornographiques. La réaction officielle de l’entreprise a surpris, voire choqué : X rejette la responsabilité sur les utilisateurs, sans annoncer de correctifs techniques immédiats.

Présenté comme un modèle d’IA « anti-woke », plus permissif et plus proche de la liberté d’expression revendiquée par X, Grok était censé se distinguer des assistants concurrents par une moindre censure et une plus grande franchise. Dans les faits, cette philosophie semble avoir ouvert une brèche grave. Des chercheurs et des utilisateurs ont démontré que Grok pouvait, via des requêtes détournées ou progressives, produire des descriptions relevant clairement de contenus sexuels impliquant des mineurs.

Dans la plupart des environnements d’IA générative, ce type de dérive est censé être bloqué par des garde-fous stricts, tant au niveau de l’entraînement que de l’inférence. Or, dans le cas de Grok, ces protections se sont révélées insuffisantes, voire inexistantes dans certains scénarios.

L'IA Grok d'Elon Musk déshabille tout le monde, des mineurs aux dirigeants mondiaux sans leur consentement

Il y a quelques jours, le réseau social X (ex-Twitter) d'Elon Musk a introduit un nouveau bouton « Modification d'image par IA » qui permet à tout utilisateur de modifier les images publiées par d'autres, même sans le consentement de l'auteur original. Les propriétaires des images ne sont pas informés lorsque des modifications sont apportées, et la fonctionnalité est activée par défaut pour tous sans une option de désactivation (du moins pour l'instant).

L'outil comprend des options permettant d'écrire des prompts, de prévisualiser les résultats et de partager l'image modifiée sur les pages de profil et le flux « Pour vous ». Le bouton apparaît sur tous les profils, qu'ils appartiennent à des utilisateurs réguliers, à des comptes vérifiés ou à des personnalités publiques.

Le lancement de cette fonctionnalité a suscité une vive réaction non seulement parmi les artistes et les photographes, qui voient leurs contenus protégés par le droit d'auteur utilisés et modifiés sans effort, mais aussi parmi des milliers d'utilisateurs lambda, en particulier des femmes dont les photos partagées sont modifiées sans leur consentement pour créer des scénarios suggestifs ou intrusifs, ce qui constitue une violation flagrante de la vie privée.

Dans un post, désormais supprimé, Grok a retouché une photo de deux jeunes filles vêtues de tenues légères et dans des poses sexuellement suggestives. Des responsables français ont réagi au problème posé par Grok et le contenu sexuel généré, notamment lorsque des images de mineurs ont été impliquées.

Une ligne de défense controversée : la faute aux utilisateurs

Nous prenons des mesures contre les contenus illégaux sur X, notamment les contenus pédopornographiques, en les supprimant, en suspendant définitivement les comptes et en collaborant avec les autorités locales et les forces de l'ordre si nécessaire.

Toute personne utilisant Grok ou incitant à la création de contenus illégaux s'expose aux mêmes sanctions que si elle téléchargeait elle-même de tels contenus.

Pour plus d'informations sur nos politiques, veuillez consulter nos pages d'aide pour prendre connaissance de l'intégralité du Règlement X et des différentes options de mise en application.
La réponse de X a consisté à affirmer que ces contenus résultaient d’un usage abusif de l’outil par des utilisateurs malveillants. Selon cette lecture, la responsabilité incomberait avant tout à ceux qui formulent les requêtes, et non à la plateforme ou au modèle d’IA lui-même. Cette position marque une rupture nette avec les standards émergents du secteur, où les éditeurs de modèles reconnaissent généralement une obligation de moyens en matière de prévention des usages criminels.

Pour de nombreux professionnels de l’informatique et de la sécurité, cet argumentaire pose un problème fondamental. Un système capable de produire ce type de contenu, même sous contrainte, révèle un défaut de conception ou de filtrage. Rejeter la faute sur l’utilisateur revient à nier la responsabilité du fournisseur dans la mise en production d’un outil potentiellement dangereux.


« C'est comme reprocher à un stylo d'écrire quelque chose de mauvais »

Le message de X Safety a relancé une discussion sur un autre fil de discussion de la plateforme, dans lequel Elon Musk, propriétaire de X, a réitéré les conséquences auxquelles s'exposent les utilisateurs en cas de suggestions inappropriées. Cette réponse faisait suite à un message d'un utilisateur de X, DogeDesigner, qui suggérait que Grok ne pouvait être tenu responsable de la « création d'images inappropriées », bien que Grok détermine lui-même ses propres résultats.

« C'est comme reprocher à un stylo d'écrire quelque chose de mauvais », a estimé DogeDesigner. « Un stylo ne décide pas de ce qui est écrit. C'est la personne qui le tient qui décide. Grok fonctionne de la même manière. Ce que vous obtenez dépend beaucoup de ce que vous entrez. »

Mais les générateurs d'images comme Grok ne sont pas obligés de produire exactement ce que l'utilisateur souhaite, comme un stylo. L'une des raisons pour lesquelles le Bureau du droit d'auteur n'autorise pas l'enregistrement des œuvres générées par l'IA est l'absence d'intervention humaine dans la détermination des résultats produits par les générateurs d'images IA. Les chatbots sont également non déterministes, générant des résultats différents pour une même requête.

C'est pourquoi, pour de nombreux utilisateurs qui se demandent pourquoi X ne filtre pas les contenus pédopornographiques en réponse aux générations de Grok, la réponse de X semble loin de résoudre le problème en rendant les utilisateurs seuls responsables des résultats.

Dans un commentaire sur le fil de discussion DogeDesigner, un programmeur informatique a souligné que les utilisateurs de X pouvaient générer par inadvertance des images inappropriées. En août dernier, par exemple, Grok a généré des images de Taylor Swift nue sans qu'on le lui ait demandé. Ces utilisateurs ne peuvent même pas supprimer les images problématiques du compte Grok pour empêcher leur diffusion, a fait remarquer le programmeur. Dans ce scénario, l'utilisateur X pourrait risquer la suspension de son compte ou une responsabilité juridique si les forces de l'ordre intervenaient, selon la réponse de X Safety, sans que X n'ait jamais à rendre compte de résultats inattendus.

Les internautes appellent Apple à agir si X ne prend pas des mesures pour Grok

De nombreux médias ont étrangement pris Grok au mot lorsque le chatbot a répondu aux demandes d'excuses en affirmant que X allait améliorer ses mesures de sécurité. Mais la réponse de X Safety semble désormais contredire le chatbot.

Alors que la réponse de X continue de décevoir les détracteurs, certains commentateurs influents sur le post de X Safety ont appelé Apple à prendre des mesures si X ne le fait pas. Ils ont suggéré que X pourrait enfreindre les règles de l'App Store interdisant les applications permettant aux utilisateurs de créer du contenu qui objectifie des personnes réelles. Selon les détracteurs, tant que Grok ne commencera pas à filtrer de manière transparente les contenus pédopornographiques ou autres contenus « déshabillant » des personnes réelles sans leur consentement, le chatbot et X devraient être interdits.

Une interdiction de l'App Store risquerait de mettre Musk en colère, qui a poursuivi Apple en justice l'année dernière, en partie à cause de sa frustration que l'App Store n'ait jamais inscrit Grok sur sa liste d'applications « incontournables ». Dans ce procès en cours, Musk a allégué que la prétendue préférence d'Apple pour ChatGPT dans l'App Store avait empêché Grok de rattraper son retard sur le marché des chatbots. Cela suggère qu'une interdiction de l'App Store pourrait potentiellement condamner la quête de Grok pour dépasser ChatGPT.

Un risque juridique et réputationnel sous-estimé

La production de contenus pédopornographiques n’est pas une simple entorse aux règles communautaires : il s’agit d’un crime lourdement sanctionné dans la quasi-totalité des juridictions. En laissant entendre que le problème relève uniquement de l’usage, X s’expose à des risques juridiques considérables, notamment en Europe où la responsabilité des plateformes et des fournisseurs de technologies est de plus en plus encadrée.

Au-delà du droit, l’impact réputationnel est potentiellement dévastateur. Pour les annonceurs, les partenaires technologiques et même les développeurs internes, être associé à un outil d’IA impliqué dans de telles dérives constitue un signal d’alarme majeur.

Une stratégie cohérente avec la vision Musk, mais à quel prix ?

Cette posture s’inscrit dans la continuité de la vision défendue par Elon Musk, qui privilégie une interprétation maximaliste de la liberté d’expression et se montre sceptique vis-à-vis des mécanismes de modération centralisés. Appliquée à l’IA générative, cette philosophie atteint toutefois ses limites. La liberté d’expression ne peut servir de paravent à la diffusion ou à la production de contenus criminels, surtout lorsqu’ils sont générés automatiquement par des systèmes industriels.

Pour les professionnels de l’IT, l’affaire Grok agit comme un révélateur. Elle met en lumière la tension croissante entre innovation rapide, positionnement idéologique et responsabilités techniques. Elle rappelle surtout qu’un modèle d’IA n’est jamais neutre : il reflète les choix, les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 12/01/2026 à 9:00
Citation Envoyé par J_P_P Voir le message
Bonjour,
Il est simple d'accuser l'outil et de faire du Musk-washing ...
Si j'écrase quelqu'un avec mon véhicule le constructeur doit-il être tenu pour responsable.
On a déjà dit et redit que ça ne fonctionne pas les analogies voitures/informatique !

Dans ton cas, le constructeur n'a pas donné comme fonction à son véhicule d'écraser quelqu'un.
Là, on a un logiciel qui permet de réaliser quelque chose d'illégale. C'est donc bien les concepteurs et distributeurs du logiciel qui sont responsables de la production.
Ils ne sont pas responsables de la diffusion.
Mais, là, encore, le support de diffusion se retrouve être le même Musk, et là encore, il ne respecte pas les lois qui interdisent de diffuser ce genre de photos.

Qu'est-ce que vous voulez de plus ?
7  1 
Avatar de David_g
Membre éprouvé https://www.developpez.com
Le 07/01/2026 à 10:08
Citation Envoyé par jnspunk Voir le message
C'est faux, on ne peut pas empêcher le "jailbreak".
Vouloir "corriger" Grok c'est comme repeindre son mur au lieu de réparer la fuite d'eau qu'il y a derrière : ce n'est pas l'idée la plus brillante.
Cela revient à dire qu'il ne faut pas mettre de serrure sur tes portes car on peut facilement les ouvrir.
En soi, peu de gens finalement feront l'effort ou auront les compétences pour. c'est un peu pareil pour ces deepfakes etc, dés que tu enleves les solutions qui ne demande aucun effort, tu réduis de beaucoup le nombre de cas.

Ici n'importe quel glandu peut mettre n'importe quelle nana à quatre pattes en string etc (beaucoup d'entre eux ont un compte payant et donc cherche aussi des vues comme le mec qui a fait cela à la première ministre suédoise)

S'il devait aller chercher des modèles d'IA, installer un générateur en local etc ou si cela lui demande de comprendre comment aller chercher des solutions pour "hacker" le prompt, 90% ne feront pas l'effort. c'est d'ailleurs le cas pour un photomontage, tu vois personne prendre le temps de se former à toshop/gimp pour réussir à voir quelque chose de qualité parce que cela trop d'effort. tu ajouterais une option dans toshop pour cela, ben bizarrement on en verra plus (alors certes c'est en local donc tu le sauras pas).
7  2 
Avatar de BenoitM
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 16:57
Citation Envoyé par Artaeus Voir le message
L'Indonésie et la Malaisie sont pourtant des modèles démocratiques reconnus comme l'affirme RSF ... (ironie)
La Malaisie est classé 40 mondiale entre la Belgique et la Pologne.
(bon légèrement descendu en 2025 (44ème))
5  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 16/01/2026 à 10:32
Citation Envoyé par der§en Voir le message
Une fois de plus on se trompe de cible mais à force, je pense que cela est intentionnel, un peu comme un crime, ou on ferai un procès à l’arme, plutôt qu’à celui qui l’a utilisé !
Citation Envoyé par OuftiBoy Voir le message
je suis parfaitement d'accord avec cette remarque pleine de bon sens:

Parce que si on pousse le raisonnement jusqu'à l'absurde (dans une voyage en absurdie, que je fais lorsque je m'ennuie, ...) on peut aussi interdire les crayons, ça peut servir a dessiner ta voisine nue dans son jardin...

Au lieu de mettre tant d'énergie à interdire ceci ou cela, mettons plutôt ces moyens pour débusquer et condamner ceux qui utilisent tout moyen de "mal utiliser quelque chose". Ce mal étant définit par des lois, votées démocratiquement.

Ce serait plus simple, et on mettrait les ressources disponibles là où on en a besoin. A une autre époque, l'image de madame qui donnait des coups de "rouleau a pâtisser" à monsieur qui rentrait bourré du bistrot du coin, personne n'aurait penser a interdire la vente de rouleau a pâtisser.
C'est sûr que si on simplifie une situation à l'extrême, alors on peut y voir de l'absurde.

Ici, il ne s'agit pas de faire le procès à l'arme plutôt qu’à celui qui l’a utilisé.
Il s'agit de faire un procès à celui qui l'a fabriqué et qui l'à distribué comme s'il s'agissait d'un jouet.

Ici, il ne s'agit pas d'un type isolé qui aurait assez de talent pour dessiner sa voisine de manière reconnaissable avec un simple crayon.
Il s'agit d'un outil automatique, accessible à tous, qui permet à n'importe qui de le faire sans effort et de distribuer massivement le résultat.

Si vous voulez tomber dans l'absurde, alors ça revient à donner accès à la bombe atomique en cliquant sur un bouton dans un site web accessible à tous, et de dire qu'on ne peux pas condamner le type qui a publié le site sous prétexte qu'il est absurde d'interdire de vendre le clavier qui a permet d'accéder au site ou la souris qui a permet de cliquer sur le bouton.

Les autres IA ont des garde-fous.
Mais Musk a décidé que les garde-fous étaient "woke" et nuisaient à la liberté d'expression.

Citation Envoyé par OuftiBoy Voir le message
Bien sure qu'il faut s'attaquer à la pédophilie, mais le faire en s'attaquant à l’appareille photo, la caméra ou X, Y ou Z ne sert à rien, me semble-t-il ?
Le jour où quelqu'un fabriquera un appareil photo disposant d'un filtre permettant de dénuder quelqu'un de manière automatique, alors je ferai parti de ceux qui sont d'avis qu'il serait bon de l'interdire.
5  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/01/2026 à 4:30
Je suis d'accord avec lui sur le principe : c'est celui qui fait la requête qui doit être tenu pour responsable.
Là où la responsabilité de l'éditeur de Grok doit être engagée, c'est quand l'image produite ne correspond pas à la requête.
Si la personne demande du CSAM, c'est à elle de se prendre les pénalités.
Si la personne n'en demande pas mais Grok en produit, c'est à l'éditeur de se les prendre.
L'éditeur doit s'assurer de la fiabilité de ce qu'il fournit, mais pas de ce que l'utilisateur en fait.
Et si Grok produit des images ne correspondant pas à la requête, une circonstance aggravante contre l'éditeur est qu'il ne fournisse pas de moyen de corriger, comme supprimer l'image mal générée.

Donc oui sur le fond, il a raison, mais qu'il s'assure au moins de fournir un outil qui fonctionne comme demandé et, pour les cas où ça ne correspond pas (qui arrivent forcément étant donné la techno), les capacités de correction minimales qu'il se doit d'implémenter (e.g. suppression d'image). Autrement il a quand même sa part de responsabilité.
6  2 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 8:05
Citation Envoyé par Ryu2000 Voir le message
Apparemment d'autres plateformes permettent de faire exactement la même chose et Keir Starmer fait semblant que ce n'est pas le cas.
L'histoire des bikinis c'est un prétexte pour attaquer X.
Combien d'évènements liés à Gémini ou ChatGPT ont mené à dénuder des milliers de personnes et à diffuser ces images en quelques jours?

Je pense que nous l'avons suffisamment dit plus haut, le problème n'est pas tant la capacité de le faire mais : la facilité, la qualité du résultat (ce que Gemini et ChatGPT semblent capables de faire) et la capacité de diffusion à grande échelle immédiate (Ce que Gemini et ChatGPT ne font pas).

Donc bien sur que cette histoire est un moyen de s'attaquer au média de harcèlement à grande échelle le plus efficace que l'histoire humaine a connu.
Citation Envoyé par Artaeus Voir le message
Non, ils ne veulent pas écouter, discuter ou débattre.
On peut critiquer Musk, mais le faire en utilisant toutes la mauvaise foi, l'hypocrisie et l'ignorance possible c'est juste ridicule (notamment sur ce sujet).
Mais nous vous écoutons, nous en discutons et nous essayons d'en débattre, ce qui est beaucoup plus compliqué parce que nous ne partons pas du même point de départ.
On peut soutenir Musk, mais le faire en utilisant toutes la mauvaise foi, l'hypocrisie et l'ignorance possible c'est juste ridicule (notamment sur ce sujet), la balle est facile à retourner
Citation Envoyé par J_P_P Voir le message
Ce genre de remarque est juste un encouragement à une sorte d'auto-censure des logiiels d'IA, mais la censure est-elle une solution car elle peut aussi être considérée comme une déviation grave d'un outil en "cachant" une partie des informations ...
Doit-il y avoir de la censure au sein même des IA?
J'en suis convaincu, il me semble évident qu'une IA ne doit pas encourager à (se) donner la mort, ne doit pas créer d'éléments pédophiles etc...
Et pourtant je pense qu'on doit vivre avec le fait qu'il existera toujours des moyens de détourner pour arriver à ces objectifs.
Et pourtant je crois que ces sujets ne doivent pas être tabou dans l'IA (genre éviter les attitudes à la Deepseek qui s'arrête de fonctionner quand on parle de Taiwan) parce que pouvoir en parler et aussi un moyen de prévenir les évènements catastrophiques.

Je pense que le vrai débat est : devons nous relier une IA et un réseau social directement?
Ma réponse est clairement non parce que l'IA et une machine à créer de l'information approximative et le réseau social est un moyen de la diffuser à grande échelle avec le minimum d'effort.
Nous sommes dans une société où une partie des drames qui arrivent ne sont pas dûs à une seule cause mais à la combinaison de plusieurs. Et je penses qu'il est malhonnête de ne s'attaquer qu'à l'une. Et je pense que ça l'est d'autant plus d'utiliser l'une pour dédouaner l'autre.
5  1 
Avatar de BenoitM
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 8:08
Citation Envoyé par J_P_P Voir le message
Bonjour,
Si j'écrase quelqu'un avec mon véhicule le constructeur doit-il être tenu pour responsable.
Non, par contre le constructeur doit respecter des normes : sécurité, de pollution, ...

Citation Envoyé par J_P_P Voir le message
Si j'envoie un mail d'insultes, le service de mail peut-il être tenu pour responsable ?
Non car le service mail ne publie pas les informations. Mais un journal lui est responsable s'il publie votre lettre
4  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 17/01/2026 à 10:42
Vous oubliez un détail important. On ne peut pas mettre de garde fou sur un crayon pour empêcher quelqu'un de dessiner sa voisine, ni sur un manteau pour empêcher quelqu'un de tuer des gens. Etc

Mais il est possible d'en mettre sur une IA.
Toutes les autres IA l'ont fait mais pas Grok. Et ce de manière délibérée.
4  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 19/01/2026 à 9:41
Je ne suis pas d'accord
Ce n'est pas que tout évolue trop vite.
C'est surtout que Grok ne respecte pas les règles que tous ont suivi, et que Musk a pris le raccourci dangereux de ne mettre aucun garde fou.

Qui va décider ce qui doit être censuré ou pas ?
La loi.
Je ne suis pas particulièrement familier avec le droit américain.
Mais je suis persuadé que même le fameux free speech n'autorise pas la création et encore moins la diffusion de telle images.

Vous avez écrit que votre point de vue est qu'il vaut mieux s'attaquer aux utilisateurs qu'au outils eux-mêmes.
Le mien est que, non seulement il faut s'attaquer aux utilisateurs, mais également aux outils ET aux créateurs de ces outils quand cela fait sens.

Musk a délibérément décidé de ne pas mettre de garde fou sur son IA, et cela, même après que Grok a fait l'apologie du nazisme.
Cela aurai du être une sonnette d'alarme, mais non.
5  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/01/2026 à 10:20
Grok a inondé X en générant environ 3 millions d'images à caractère sexuel, dont 23 000 représentant des enfants, en 11 jours
Et après les promoteurs de l'IA vont venir nous faire de beaux discours pour dire que l'IA va élever la civilisation humaine en améliorant la recherche, en améliorant les connaissances, blabla, blabla, blabla.

IA ou pas, l'être humain ne change pas... Son intérêt premier? Du cul, du cul, du cul!
4  0