La plateforme X traverse une nouvelle zone de turbulences. Cette fois, la controverse ne porte ni sur la modération humaine, ni sur les changements de gouvernance, mais sur les dérives de Grok, son assistant d’intelligence artificielle maison, accusé d’avoir généré des contenus pédopornographiques. La réaction officielle de l’entreprise a surpris, voire choqué : X rejette la responsabilité sur les utilisateurs, sans annoncer de correctifs techniques immédiats.Présenté comme un modèle d’IA « anti-woke », plus permissif et plus proche de la liberté d’expression revendiquée par X, Grok était censé se distinguer des assistants concurrents par une moindre censure et une plus grande franchise. Dans les faits, cette philosophie semble avoir ouvert une brèche grave. Des chercheurs et des utilisateurs ont démontré que Grok pouvait, via des requêtes détournées ou progressives, produire des descriptions relevant clairement de contenus sexuels impliquant des mineurs.
Dans la plupart des environnements d’IA générative, ce type de dérive est censé être bloqué par des garde-fous stricts, tant au niveau de l’entraînement que de l’inférence. Or, dans le cas de Grok, ces protections se sont révélées insuffisantes, voire inexistantes dans certains scénarios.
L'IA Grok d'Elon Musk déshabille tout le monde, des mineurs aux dirigeants mondiaux sans leur consentement
Il y a quelques jours, le réseau social X (ex-Twitter) d'Elon Musk a introduit un nouveau bouton « Modification d'image par IA » qui permet à tout utilisateur de modifier les images publiées par d'autres, même sans le consentement de l'auteur original. Les propriétaires des images ne sont pas informés lorsque des modifications sont apportées, et la fonctionnalité est activée par défaut pour tous sans une option de désactivation (du moins pour l'instant).
L'outil comprend des options permettant d'écrire des prompts, de prévisualiser les résultats et de partager l'image modifiée sur les pages de profil et le flux « Pour vous ». Le bouton apparaît sur tous les profils, qu'ils appartiennent à des utilisateurs réguliers, à des comptes vérifiés ou à des personnalités publiques.
Le lancement de cette fonctionnalité a suscité une vive réaction non seulement parmi les artistes et les photographes, qui voient leurs contenus protégés par le droit d'auteur utilisés et modifiés sans effort, mais aussi parmi des milliers d'utilisateurs lambda, en particulier des femmes dont les photos partagées sont modifiées sans leur consentement pour créer des scénarios suggestifs ou intrusifs, ce qui constitue une violation flagrante de la vie privée.
Dans un post, désormais supprimé, Grok a retouché une photo de deux jeunes filles vêtues de tenues légères et dans des poses sexuellement suggestives. Des responsables français ont réagi au problème posé par Grok et le contenu sexuel généré, notamment lorsque des images de mineurs ont été impliquées.
Une ligne de défense controversée : la faute aux utilisateurs
Nous prenons des mesures contre les contenus illégaux sur X, notamment les contenus pédopornographiques, en les supprimant, en suspendant définitivement les comptes et en collaborant avec les autorités locales et les forces de l'ordre si nécessaire.
Toute personne utilisant Grok ou incitant à la création de contenus illégaux s'expose aux mêmes sanctions que si elle téléchargeait elle-même de tels contenus.
Pour plus d'informations sur nos politiques, veuillez consulter nos pages d'aide pour prendre connaissance de l'intégralité du Règlement X et des différentes options de mise en application.
Toute personne utilisant Grok ou incitant à la création de contenus illégaux s'expose aux mêmes sanctions que si elle téléchargeait elle-même de tels contenus.
Pour plus d'informations sur nos politiques, veuillez consulter nos pages d'aide pour prendre connaissance de l'intégralité du Règlement X et des différentes options de mise en application.
Pour de nombreux professionnels de l’informatique et de la sécurité, cet argumentaire pose un problème fondamental. Un système capable de produire ce type de contenu, même sous contrainte, révèle un défaut de conception ou de filtrage. Rejeter la faute sur l’utilisateur revient à nier la responsabilité du fournisseur dans la mise en production d’un outil potentiellement dangereux.
« C'est comme reprocher à un stylo d'écrire quelque chose de mauvais »
Le message de X Safety a relancé une discussion sur un autre fil de discussion de la plateforme, dans lequel Elon Musk, propriétaire de X, a réitéré les conséquences auxquelles s'exposent les utilisateurs en cas de suggestions inappropriées. Cette réponse faisait suite à un message d'un utilisateur de X, DogeDesigner, qui suggérait que Grok ne pouvait être tenu responsable de la « création d'images inappropriées », bien que Grok détermine lui-même ses propres résultats.
« C'est comme reprocher à un stylo d'écrire quelque chose de mauvais », a estimé DogeDesigner. « Un stylo ne décide pas de ce qui est écrit. C'est la personne qui le tient qui décide. Grok fonctionne de la même manière. Ce que vous obtenez dépend beaucoup de ce que vous entrez. »
Mais les générateurs d'images comme Grok ne sont pas obligés de produire exactement ce que l'utilisateur souhaite, comme un stylo. L'une des raisons pour lesquelles le Bureau du droit d'auteur n'autorise pas l'enregistrement des œuvres générées par l'IA est l'absence d'intervention humaine dans la détermination des résultats produits par les générateurs d'images IA. Les chatbots sont également non déterministes, générant des résultats différents pour une même requête.
C'est pourquoi, pour de nombreux utilisateurs qui se demandent pourquoi X ne filtre pas les contenus pédopornographiques en réponse aux générations de Grok, la réponse de X semble loin de résoudre le problème en rendant les utilisateurs seuls responsables des résultats.
Dans un commentaire sur le fil de discussion DogeDesigner, un programmeur informatique a souligné que les utilisateurs de X pouvaient générer par inadvertance des images inappropriées. En août dernier, par exemple, Grok a généré des images de Taylor Swift nue sans qu'on le lui ait demandé. Ces utilisateurs ne peuvent même pas supprimer les images problématiques du compte Grok pour empêcher leur diffusion, a fait remarquer le programmeur. Dans ce scénario, l'utilisateur X pourrait risquer la suspension de son compte ou une responsabilité juridique si les forces de l'ordre intervenaient, selon la réponse de X Safety, sans que X n'ait jamais à rendre compte de résultats inattendus.
Les internautes appellent Apple à agir si X ne prend pas des mesures pour Grok
De nombreux médias ont étrangement pris Grok au mot lorsque le chatbot a répondu aux demandes d'excuses en affirmant que X allait améliorer ses mesures de sécurité. Mais la réponse de X Safety semble désormais contredire le chatbot.
Alors que la réponse de X continue de décevoir les détracteurs, certains commentateurs influents sur le post de X Safety ont appelé Apple à prendre des mesures si X ne le fait pas. Ils ont suggéré que X pourrait enfreindre les règles de l'App Store interdisant les applications permettant aux utilisateurs de créer du contenu qui objectifie des personnes réelles. Selon les détracteurs, tant que Grok ne commencera pas à filtrer de manière transparente les contenus pédopornographiques ou autres contenus « déshabillant » des personnes réelles sans leur consentement, le chatbot et X devraient être interdits.
Une interdiction de l'App Store risquerait de mettre Musk en colère, qui a poursuivi Apple en justice l'année dernière, en partie à cause de sa frustration que l'App Store n'ait jamais inscrit Grok sur sa liste d'applications « incontournables ». Dans ce procès en cours, Musk a allégué que la prétendue préférence d'Apple pour ChatGPT dans l'App Store avait empêché Grok de rattraper son retard sur le marché des chatbots. Cela suggère qu'une interdiction de l'App Store pourrait potentiellement condamner la quête de Grok pour dépasser ChatGPT.
Un risque juridique et réputationnel sous-estimé
La production de contenus pédopornographiques n’est pas une simple entorse aux règles communautaires : il s’agit d’un crime lourdement sanctionné dans la quasi-totalité des juridictions. En laissant entendre que le problème relève uniquement de l’usage, X s’expose à des risques juridiques considérables, notamment en Europe où la responsabilité des plateformes et des fournisseurs de technologies est de plus en plus encadrée.
Au-delà du droit, l’impact réputationnel est potentiellement dévastateur. Pour les annonceurs, les partenaires technologiques et même les développeurs internes, être associé à un outil d’IA impliqué dans de telles dérives constitue un signal d’alarme majeur.
Une stratégie cohérente avec la vision Musk, mais à quel prix ?
Cette posture s’inscrit dans la continuité de la vision défendue par Elon Musk, qui privilégie une interprétation maximaliste de la liberté d’expression et se montre sceptique vis-à-vis des mécanismes de modération centralisés. Appliquée à l’IA générative, cette philosophie atteint toutefois ses limites. La liberté d’expression ne peut servir de paravent à la diffusion ou à la production de contenus criminels, surtout lorsqu’ils sont générés automatiquement par des systèmes industriels.
Pour les professionnels de l’IT, l’affaire Grok agit comme un révélateur. Elle met en lumière la tension croissante entre innovation rapide, positionnement idéologique et responsabilités techniques. Elle rappelle surtout qu’un modèle d’IA n’est jamais neutre : il reflète les choix, les arbitrages et les priorités de ceux qui le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Faut-il attendre une intervention judiciaire ou réglementaire pour forcer des correctifs, ou l’autorégulation des plateformes d’IA est-elle déjà un mythe dépassé ?
pourtant il y a 1 exemple qui existe depuis au moins 8 ans en informatique/ voiture pas encore répondu : si 1 conducteur se tue avec son auto-pilot qui est responsable
?