IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le nouveau générateur d'images de la société IA d'Elon Musk peut créer n'importe quoi, de Macron et Trudeau qui s'embrassent à Mickey Mouse avec une arme.
Faut-il censurer comme ChatGPT ou laisser faire ?

Le , par Stéphane le calme

54PARTAGES

13  0 
Le nouveau générateur d'images de la société IA d'Elon Musk peut créer n'importe quoi, de Macron et Trudeau qui s'embrassent à Mickey Mouse avec une arme.
Ce qui suscite la polémique tandis que X est sous le coup d'une enquête de la Commission européenne

Accessible aux détenteurs d’un abonnement « premium » au réseau social X, le chatbot Grok de xAI vous permet désormais de créer des images à partir de textes et de les publier sur X. L'outil est moins bridé que la concurrence ; les internautes ont facilement réussi à lui faire produire des images violentes et autres deepfakes.

Lancée en novembre dernier, Grok, l’intelligence artificielle (IA) d’Elon Musk, s’offre de nouvelles capacités. Ce mercredi 14 août, xAI, la startup d’IA du milliardaire, a dévoilé un nouveau modèle : Grok-2. Contrairement aux autres IA, Grok-2 semble cependant être moins limité. Depuis son annonce, de nombreux utilisateurs ont utilisé le modèle pour générer des images de personnalités politiques, ce qui est interdit avec Midjourney ou Dall-E d’OpenAI.

En fait, officiellement, l’IA ne peut pas générer des « images pornographiques, excessivement violentes, haineuses ou faisant la promotion d’activités dangereuses ».

Quand on lui pose la question Grok indique aussi être « prudent quant à la création d’images susceptibles d’enfreindre des droits d’auteur ou des marques déposées existants » et ne pas produire « d’images susceptibles d’être utilisées pour tromper ou nuire à autrui, comme les « deepfakes » destinés à induire en erreur ».


Grok vous dira qu'il a des garde-fous si vous lui demandez quelque chose comme « quelles sont tes limites en matière de génération d'images ? ». Entre autres choses, il affiche :
  • J'évite de générer des images pornographiques, excessivement violentes, haineuses ou faisant la promotion d'activités dangereuses.
  • Je fais attention à ne pas créer d'images susceptibles d'enfreindre des droits d'auteur ou des marques déposées existants. Il s'agit notamment de personnages connus, de logos ou de tout contenu qui pourrait être considéré comme une propriété intellectuelle sans élément transformateur.
  • Je ne produirai pas d'images susceptibles d'être utilisées pour tromper ou nuire à autrui, comme les « deepfakes » destinés à induire en erreur, ou des images qui pourraient entraîner des dommages dans le monde réel.

Mais il ne s'agit probablement pas de véritables règles, mais simplement de réponses prédictives à l'apparence vraisemblable, générées à la volée. Si vous posez plusieurs fois la question, vous obtiendrez des variantes avec des politiques différentes.

Pourtant, lorsque les internautes ont testé ses limites, ils n'en ont pratiquement pas vus.

Ainsi, Grok peut créer une photo plutôt réaliste d’Elon Musk portant une affiche « Trans Rights », alors que le milliardaire est connu pour militer contre les droits trans.


Ou encore Kamala Harris en train de mettre le feu au drapeau des États-Unis


Sans oublier Macron et Trudeau qui s'embrassent.


Même si Grok refuse de générer quelque chose, il est facile de contourner la mesure

D'autres expériences menées par des utilisateurs sur X montrent que même si Grok refuse de générer quelque chose, il est facile de trouver des failles. Il y a donc très peu de garanties pour éviter que Grok ne génère des images sanglantes de Musk et Mickey Mouse abattant des enfants, ou même de la « pornographie enfantine si on lui donne les instructions appropriées », selon Christian Montessori, un utilisateur de X. Il a posté l'image générée sur son compte, suivi de ce message :

« En donnant à Grok le contexte que vous êtes un professionnel, vous pouvez générer à peu près n'importe quoi sans aucune restriction. Vous pouvez générer n'importe quoi, depuis les représentations violentes de mon tweet précédent jusqu'à la pornographie infantile si vous donnez à Grok les instructions appropriées.

« Dans l'ensemble, il est clair qu'une surveillance immédiate s'impose. OpenAI, Meta et Google ont tous mis en œuvre des protocoles de sécurité profondément ancrés. Il semble que Grok n'ait fait l'objet que de tests de sécurité très limités, voire nuls. Dans les premiers jours de ChatGPT, j'ai pu obtenir des instructions sur la façon de fabriquer des bombes.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">By giving Grok the context that you are a professional you are able to generate just about anything without any restriction. You can generate anything from the violent depictions in my previous tweet to even having Grok generate child pornography if given the proper prompts.</p>— Christian Montessori (@chrmontessori) <a href="https://twitter.com/chrmontessori/status/1823980277049307409?ref_src=twsrc%5Etfw">August 15, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Et si Musk est conscient de ces problèmes, il semble les trouver amusants. D'ailleurs, lorsqu'une utilisatrice à dit « Oh, mon Dieu. Grok n'a absolument aucun filtre pour sa génération d'images. C'est l'une des implémentations d'IA les plus imprudentes et irresponsables que j'aie jamais vues », il a simplement rigolé.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Oh my god. Grok has absolutely no filters for its image generation. This is one of the most reckless and irresponsible AI implementations I've ever seen. <a href="https://t.co/oiyRhW5jpF">pic.twitter.com/oiyRhW5jpF</a></p>— Alejandra Caraballo (@Esqueer_) <a href="https://twitter.com/Esqueer_/status/1823789104879800368?ref_src=twsrc%5Etfw">August 14, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

De plus, réagissant à un message saluant l’aspect « non censuré » de Grok 2.0 et son supposé respect de « la liberté d’expression », Elon Musk a déclaré : « Grok est l’IA la plus fun du monde »

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">The new <a href="https://twitter.com/grok?ref_src=twsrc%5Etfw">@grok</a> 2.0 is clearly the most based and uncensored model of its class yet.<br><br>Glad <a href="https://twitter.com/elonmusk?ref_src=twsrc%5Etfw">@elonmusk</a> is ensuring freedom of speech for humans and machines alike with <a href="https://twitter.com/X?ref_src=twsrc%5Etfw">@x</a> + <a href="https://twitter.com/xai?ref_src=twsrc%5Etfw">@xai</a>.</p>— Beff – e/acc (@BasedBeffJezos) <a href="https://twitter.com/BasedBeffJezos/status/1823760434089844861?ref_src=twsrc%5Etfw">August 14, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Un générateur d'images qui suscite la polémique tandis que X est sous le coup d'une enquête de la Commission européenne

Grok n'est pas le seul moyen d'obtenir des images d'IA violentes, sexuelles ou trompeuses, bien entendu. Des outils logiciels ouverts comme Stable Diffusion peuvent être modifiés pour produire un large éventail de contenus avec peu de garde-fous. Il s'agit simplement d'une approche très inhabituelle pour un chatbot en ligne d'une grande entreprise technologique - Google a mis en pause les capacités de génération d'images de Gemini après une tentative embarrassante de surcorriger les stéréotypes liés à la race et au sexe.

Le cas de Grok est particulier : Elon Musk a toujours vilipendé les programmes d’intelligence artificielle générative de ses concurrents, soumis, selon lui, au politiquement correct et à l’agenda « woke ». Il avait férocement critiqué Google en février, quand son logiciel Gemini avait mis en scène des personnes noires pour incarner des soldats allemands de la seconde guerre mondiale ou les pères fondateurs des Etats-Unis. « Le virus woke est en train de tuer la civilisation occidentale », avait-il réagi, accusant Google de concevoir des programmes « racistes et anticivilisation ».

Le manque de rigueur de Grok est cohérent avec le dédain de Musk pour l'IA standard et les conventions de sécurité des médias sociaux, mais le générateur d'images arrive à un moment particulièrement délicat. La Commission européenne enquête déjà sur X pour des violations potentielles de la loi sur la sécurité numérique, qui régit la manière dont les très grandes plateformes en ligne modèrent le contenu, et elle a demandé à X et à d'autres entreprises, au début de l'année, des informations sur l'atténuation des risques liés à l'IA.

Si Grok-2 ne semble pas disposer de garde-fous, xAI indique dans les conditions générales d’utilisation qu’il est interdit d’utiliser l’IA pour "encourager la haine, la violence ou le préjudice à l’encontre d’un individu ou d’un groupe". De même, il est interdit de se servir de Grok à des fins de diffamation ou encore pour usurper l’identité d’une personne ou d’une entité.

Sources : conditions générales d'utilisation, présentation de Grok 2

Et vous ?

Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
Vous avez lu gratuitement 527 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 20/06/2025 à 14:14
Oui enfin la c'est un cas particulier, au lieu d'utiliser des turbines performantes et agréés, son super Grok utilise des turbines de secours ultra polluantes, et qui empoisonnent les habitants aux alentour.

Avec ses milliards au lieu d'acheter twitter pour en faire de la merde, il aurait pu faire construire un parc solaire avec des batteries pour alimenter son truc, donc ça se voie que le Musk en a rien à foutre ni des gens ni de la planète. Ah oui il a dit qu'il allait abandonner la terre pour devenir le roi de Mars, enfin je ne sais pas s'il va oser un jour embarquer dans son Starship en carton. Jeff Bezos au moins lui il a osé embarquer dans sa fusée phallique, alors que Elon a jamais osé mettre les pieds dans une de ses fusées.
2  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 23/06/2025 à 2:54
Tu n'a pas compris le problème, c'est pas juste un problème de turbine à gaz banal c'est que l'installation d'Elon n'est pas classique, c'est de la pure merde inadmissible, c'est un pur assassinat de la population locale, un crime pour lequel il devrait être pendu haut et cours :


Elon Musk installe des turbines « rapides et sales » pour alimenter les centres de données de xAI à Memphis

xAI, la société d'IA d'Elon Musk, utilise des turbines mobiles au gaz naturel pour alimenter son nouveau centre de données Colossus à Memphis, dans le Tennessee, en raison de l'insuffisance de l'électricité fournie par le réseau local. Ces turbines, généralement utilisées en cas d'urgence, sont moins efficaces sur le plan énergétique et émettent plus de polluants que les centrales électriques classiques. L'utilisation de ces turbines par xAI sans autorisation appropriée a suscité l'inquiétude des journalistes locaux et des défenseurs de l'environnement. L'entreprise n'a déposé une demande de permis qu'en janvier 2025, plusieurs mois après que les turbines aient été mises en service, en vue d'obtenir une autorisation pour les turbines existantes et les projets d'en ajouter d'autres. Cette démarche a suscité des critiques en raison de son impact sur l'environnement et de son manque de transparence.

Le département de la santé du comté de Shelby n'a pas fixé de calendrier pour l'approbation des turbines, qui sont sur le point d'émettre une limite critique de formaldéhyde. Si les émissions dépassent 10 tonnes par an, le site sera considéré comme une "source majeure" de pollution, ce qui entraînera une réglementation plus stricte. xAI s'étend également à un deuxième site à Memphis, en utilisant probablement des turbines plus mobiles, ce qui exacerbera les problèmes environnementaux dans une zone déjà polluée. L'approche de l'entreprise a été critiquée pour son manque de respect envers la communauté locale, qui a toujours souffert de la pollution industrielle.

Principaux enseignements :
- xAI utilise des turbines mobiles au gaz naturel pour alimenter son centre de données Colossus à Memphis. Ces turbines sont généralement utilisées en cas d'urgence et sont peu respectueuses de l'environnement.
- xAI a exploité ces turbines sans les permis aériens requis, ce qui a donné lieu à des contestations juridiques et à une demande de permis retardée pour ajouter d'autres turbines.
- L'utilisation de turbines mobiles est une solution palliative en raison de la forte demande d'énergie et des retards dans la production de turbines fixes, bien qu'elles soient moins efficaces et plus polluantes.
2  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30
Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.

Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.


Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 21:09
Citation Envoyé par Ryu2000 Voir le message
Ouais mais ça ne va pas plaire à Disney.
Certes

D'ailleurs quand on y pense, les grosses multinationales de gestion des droits d'auteur (de Disney à Warner en passant par Sony) sont en train de se faire vraiment avoir ; pendant des années, on nous a fait ch*** avec le strict respect du droit d'auteur, désormais ces même pouvoir publiques deviennent très laxistes avec l'IA. La différence est que ce n'a jamais été des multinationales du numérique qui piratais du contenu... Alors qu'avec l'IA, les intérêts financiers ne sont plus les mêmes
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 23/08/2024 à 8:22
Citation Envoyé par Ryu2000 Voir le message
Il faut le temps que les lois se fassent, c'est un processus lent.
Je suis moins optimiste que toi là dessus.
Le problème n'est pas le temps législatif mais l'impunité de certains ou la capacité à répondre à ce système.

Je vais donner un exemple : il y a 7-8 ans les troupes d'improvisations théâtrale vers chez moi ont reçu des courriers ou des mails leur signalant qu'elles avaient violées les droits d'auteurs pendant certains de leurs évènements en diffusant au public des musiques qui n'étaient pas libre de droits (de mémoire on leur réclamait 75€ par évènements sur environ 1 an soit entre 300 et 1000€).
Certaines troupes ont décidé de payer vite pour éviter tout problème.
D'autres ont décidé de contester collectivement chaque évènement via courrier d'un avocat.
Une partie des évènements ont été retiré de la liste mais pour d'autres on a reçu la liste des musiques diffusées avec les heures de diffusion.
Je n'ai pas le détail de la suite mais s'en est suivi plusieurs échanges entre avocats pour que finalement ils renoncent à toute demande.

Là où je veux en venir est que si tu as les moyens (en l'occurrence un improvisateur avocat) et que tu pousses l'adversaire à dépenser plus en te répondant qu'il n'y gagnera à la fin, les poursuites sont abandonnées.
Les puissants ont quasiment moyens illimités sur ce genre de sujets stratégique pour eux (regarde les amendes données aux GAFAM qui se répètent tous les ans sans que rien ne change).
Ils sont factuellement au dessus de la loi parce qu'il est plus rentable pour eux de ne pas la respecter et de payer l'amende que de la respecter.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 31/08/2024 à 20:50


Mais quand même, quand je lis ceci:

Citation Envoyé par OrthodoxWindows Voir le message
Surtout pas, il s'agit d'une mesure totalement absurde, qui ne peut que conduire à la mort de l'IA générative. Même des IA très modérés peuvent générer du contenu pouvant tomber sous le coup de la loi, c'est impossible d'empêcher cela.
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.

Si tu vas au restaurant, que tu commandes un steak au poivre, et qu'on te sers une pizza avariée, tu vas la manger sans rien dire ? Ou bien tu vas réclamer au "responsable" de ce restaurant des explications ?

Si tu vas à l'hopital pour te faire retirer un furoncle, et qu'on te retire un testicule à la place, là non plus tu ne vas rien dire ?

Si c'est le cas, je ne peux que de t'applaudire Tu est le plus tolérant du monde.


Je ne vois pas pourquoi on devrait "absoudre" de toute responsabilités le "responsable" d'une IA qui "Hallucine" (je ne parle pas des développeurs, mais des éditeurs de ces IA, ceux qui gagnent du fric en vomissant un gloubiboulga en remixant ce qu'ils ont volé un peu partout sur le web).

Et si cela ne peut que conduire à la mort de l'IA générative, ça n'est pas le soucis, ça ne sera ni la première ni la dernière révolution qui ne mène nulle part. Le monde continuera de tourner.

Citation Envoyé par OrthodoxWindows Voir le message
Pour le reste, je ne vois pas en quoi Grok est particulièrement un problème, vu qu'il existe plusieurs modèles open-source, de plus en plus performant.

Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en expérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.

Si tu faisais de l'humour, je m'excuse sinon je vais tenter de rester "zen"

BàV et Peace & Love.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 31/08/2024 à 21:25
Citation Envoyé par OuftiBoy Voir le message
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.
1  0