L'arrivée de modèles de synthèse d'images largement disponibles, tels que Midjourney et Stable Diffusion, a provoqué une intense bataille en ligne entre les artistes qui considèrent les œuvres assistées par l'IA comme une forme de vol et ceux qui accueillent avec enthousiasme ces nouveaux outils de création. Les communautés d'artistes établies sont à la croisée des chemins car elles craignent que les œuvres non IA ne soient noyées dans une offre illimitée d'œuvres générées par l'IA, alors que ces outils sont devenus très populaires parmi certains de leurs membres.
En interdisant l'art créé par synthèse d'image sur son portail d'art, Newgrounds a écrit : « Nous voulons garder l'accent sur l'art fait par des personnes et ne pas inonder le portail d'art avec de l'art généré par ordinateur ». Fur Affinity a cité des préoccupations concernant l'éthique de la façon dont les modèles de synthèse d'images apprennent à partir d'œuvres d'art existantes, écrivant : « Notre objectif est de soutenir les artistes et leur contenu. Nous ne pensons pas qu'il soit dans l'intérêt de notre communauté d'autoriser du contenu généré par l'IA sur le site ». Ce ne sont que les derniers mouvements dans un débat qui évolue rapidement sur la façon dont les communautés artistiques (et les professionnels de l'art) peuvent s'adapter à un logiciel qui peut potentiellement produire des œuvres illimitées d'art magnifique à un rythme qu'aucun humain travaillant sans les outils ne pourrait égaler.
Parmi ces outils, nous pouvons citer DALL-E 3, le système d'IA d'OpenAI qui peut générer des images à partir de quelques mots ou éditer et affiner des images existantes par le même moyen. Par exemple, l'invite « un renard dans un arbre » ferait apparaître une photo d'un renard assis dans un arbre, ou l'invite « astronaute avec un bagel à la main » montrerait… eh bien, vous voyez où cela mène. Le logiciel ne se contente pas de créer une image dans un style unique, vous pouvez ajouter différentes techniques artistiques à votre demande, en entrant des styles de dessin, de peinture à l'huile, un modèle en pâte à modeler, tricoté en laine, dessiné sur un mur de grotte, ou même comme une affiche de film des années 1960.
Quand l'IA reproduit des œuvres protégées par le droit d'auteur
Seulement voila :
- Les systèmes d'IA générative comme DALL-E et ChatGPT ont été formés sur du matériel protégé par le droit d'auteur*;
- OpenAI, malgré son nom, n'a pas été transparent sur les sujets sur lesquels elle a été formée.
- Les systèmes d’IA générative sont tout à fait capables de produire du matériel qui porte atteinte au droit d’auteur. Ce cas est d'ailleurs au centre de la bataille judiciaire opposant le New York Times à OpenAI et Microsoft. La plainte cite plusieurs exemples de ChatGPT récitant des extraits de journalistes du New York Times presque entièrement mot pour mot. « OpenAI n'a joué aucun rôle dans la création de ce contenu, mais avec un minimum d'incitations, il en récitera de grandes parties textuellement », indique la plainte.
Sur la gauche se trouve une partie de la réponse générée par ChatGPT. À droite, l'article du New York Times. Le texte correspondant est en rouge. - Ils n'informent pas les utilisateurs lorsqu'ils le font.
- Ils ne fournissent aucune information sur la provenance des images qu’ils produisent.
- Les utilisateurs peuvent ne pas savoir lorsqu'ils produisent une image donnée s'ils portent atteinte à leurs droits.
DALL-E d'OpenAI
Certains ont commencé à noter que DALL-E reproduisait des œuvres protégées. Par exemple, cet internaute qui déclare : « Il devrait être clair désormais que même des invites très vagues conduisent systématiquement à des violations de droits d'auteur et/ou de marques déposées. Comment la responsabilité peut-elle être imputée à l’utilisateur alors que le modèle genAI s’efforce de commettre des infractions sans y être invité*? »
Ou encore Justine Moore de A16Z qui déclare : « Nous gagnons définitivement la bataille du droit d’auteur, les gars. Ces frères italiens ne ressemblent en rien à Mario et Luigi ».It should be clear by now that even very vague prompts consistently lead to copyright and/or trademark violations.
— Blanketman (@Blanketman_01) December 29, 2023
How can liability be pushed to the user when the genAI model tries so hard to infringe without being directed to do so? pic.twitter.com/RmAR2LMVxr
MidjourneyWe’re definitely winning the copyright battle, guys.
— Justine Moore (@venturetwins) December 29, 2023
These Italian brothers look nothing like Mario and Luigi. pic.twitter.com/qemYuGsXGm
Mais DALL-E n'est pas le seul système à proposer ce genre de rendu. Reid Southern, concepteur et illustrateur de films, a déclaré avoir trouvé une « preuve irréfutable de la violation flagrante du droit d'auteur de Midjourney ».
I consider this a smoking gun for Midjourney's flagrant copyright infringement. A 6-word prompt can replicate a Dune still nearly 1:1 every time. These aren't variations, it's the same prompt run repeatedly.
— Reid Southen (@Rahll) December 24, 2023
Try it yourself. Merry Christmas Midjourney. pic.twitter.com/2wpeTwxS0Q
Gary Marcus a plusieurs casquettes et se présente comme étant un expert de premier plan en matière d'IA, s'est exprimé devant le sous-comité de surveillance de l'IA du Sénat américain, Fondateur/PDG de Geometric Intelligence (qui a été acquis par Uber), TED speaker.
Au vue de la situation, il a déclaré :
Des systèmes comme DALL-E et ChatGPT sont essentiellement des boîtes noires. Les systèmes GenAI ne donnent pas d’attribution aux documents sources car, du moins dans leur forme actuelle, ils ne le peuvent pas. (Certaines entreprises recherchent comment faire ce genre de chose, mais je ne connais jusqu'à présent aucune solution convaincante.)
À moins que quelqu’un puisse inventer une nouvelle architecture capable de suivre de manière fiable la provenance du texte génératif et/ou des images génératives, la violation – souvent pas à la demande de l’utilisateur – continuera.
Un bon système doit fournir à l'utilisateur un manifeste de sources*; les systèmes actuels ne le font pas.
Selon toute vraisemblance, le procès du New York Times n’est que le premier d’une longue série. Aujourd'hui, lors d'un sondage à choix multiples X, j'ai demandé aux gens s'ils pensaient que l'affaire serait réglée (la plupart l'ont fait) et quelle pourrait être la valeur probable d'un tel règlement. La plupart des réponses étaient de 100 millions de dollars ou plus, 20 % s'attendaient à un règlement d'un milliard de dollars. Lorsque vous multipliez de tels chiffres par le nombre de studios de cinéma, de sociétés de jeux vidéo, d'autres journaux, etc., très vite, vous vous retrouvez avec des sommes astronomiques.
Et OpenAI est confronté à d’autres risques.
... mais un ingénieur estime que l'exemple du NYT ne relève même pas d'une violation du droit d'auteurIf you were NYT in lawsuit against OpenAI, and OpenAI offered a settlement, what is the minimum you would accept?
— Gary Marcus (@GaryMarcus) December 29, 2023
C'est un malentendu à la fois sur l'utilisation équitable et sur la technologie. Les documents « formés et protégés par le droit d'auteur » sont sans objet. Il n'est pas non plus illégal de récupérer du contenu et de le revendre, il suffit de demander à HiQ, que le 9ème Circuit protégeait contre Linkedin - HiQ récupérait et revendait littéralement des données non sécurisées (principalement) du site Web commercial de LinkedIn.
Dans l'affaire Authors Guild c. Google, même la numérisation mot à mot de livres par Google pour créer une base de données consultable a été considérée comme un usage équitable, considéré comme transformateur. L'utilisation par OpenAI du contenu du NYT est similaire, le transformant pour l'apprentissage de l'IA où il est divisé en jetons, puis converti en intégrations - encore une fois, c'est le malentendu des gens*; ils pensent que les « mots » servent à former le modèle. Ce n’est pas le cas. Les nombres entrent. Pour obtenir des nombres, il faut transformer les mots en jetons puis en nombres.
Fox News Network, LLC contre TVEyes, Inc., un service enregistrant tout le contenu diffusé par des organisations à des fins d'indexation et de découpage, a été considéré comme un usage équitable en raison de son objectif transformateur.
.. Sony Corp. contre Universal City Studios a soutenu l'innovation technologique dans l'affaire Betamax, soutenant de nouvelles utilisations technologiques telles que la réalisation de copies complètes d'émissions de télévision.
Le NYT a également une énorme colline à gravir pour prouver que ses prétendues pertes sont dues à l’IA et non à son propre modèle économique défaillant (un défi, c’est le moins qu’on puisse dire).
Sources : Gary Marcus, Justine Moorenone of these are infringement. a model producing even the exact thing, token-for-token or pixel-for-pixel, isn't infringement. the "red text" pages of the suit aren't compelling, either. first off, it's possible the verbatim text is actually RAG in the chat application having…
— Zack (@birb_check) December 29, 2023
Et vous ?
Êtes-vous surpris de voir les IA génératives s'appuyer sur des œuvres protégées même lorsqu'elles ne sont pas mentionnées en entrée ?
Cela constitue-t-il, selon vous, une violation du droit d'auteur ? Dans quelle mesure ?
Que pensez-vous du raisonnement de Gary Marcus qui pense que le problème va toujours exister tant qu'il n'y a pas une modification de l'architecture pour permettre d'identifier les sources ?
Que pensez-vous de l'argumentation de Zack qui indique que le cas soulevé par le New-York Times ne relève pas du droit d'auteur ?