Le Joseph Saveri Law Firm, LLP (un cabinet de recours collectif de premier plan avec des bureaux en Californie et à New York) en association avec Matthew Butterick et Lockridge, Grindal, Nauen P.L.L.P. ont intenté une action en justice devant le tribunal de district des États-Unis pour le district nord de la Californie au nom d'une catégorie de plaignants demandant une indemnisation pour les dommages causés par Stability AI, DeviantArt et Midjourney, et une injonction pour prévenir de futurs dommages.
Le procès allègue une violation directe du droit d'auteur, une violation indirecte du droit d'auteur liée à des contrefaçons, des violations du Digital Millennium Copyright Act (DMCA), une violation des droits de publicité des membres du groupe, une rupture de contrat liée aux conditions d'utilisation de DeviantArt et diverses violations de la loi californienne sur la concurrence déloyale.
Autrefois réservés à un groupe restreint d'initiés de la technologie, les systèmes d'IA texte-image sont de plus en plus populaires et puissants. Ces outils, qui offrent généralement quelques crédits gratuits avant d'être facturés, peuvent créer toutes sortes d'images avec seulement quelques mots, y compris celles qui évoquent clairement les œuvres de très nombreux artistes (si elles ne semblent pas avoir été créées par le même artiste). Les utilisateurs peuvent désigner ces artistes par des mots tels que « dans le style de » ou « par », accompagnés d'un nom spécifique. Et les utilisations actuelles de ces outils peuvent aller de l'amusement personnel à des cas plus commerciaux. Mais la découverte par des artistes que leur travail est utilisé pour entraîner l'IA soulève une préoccupation fondamentale : leur propre art est effectivement utilisé pour entraîner un programme informatique qui pourrait un jour s'attaquer à leur gagne-pain.
Quiconque génère des images avec des systèmes tels que Stable Diffusion ou DALL-E peut ensuite les vendre, les conditions spécifiques concernant le droit d'auteur et la propriété de ces images varient. « Je ne veux pas du tout participer à la machine qui va dévaloriser ce que je fais », a déclaré Daniel Danger, un illustrateur et graveur qui a appris qu'un certain nombre de ses œuvres avaient été utilisées pour entraîner Stable Diffusion.
Ces résultats sont loin d'être magiques : pour qu'un de ces systèmes puisse ingérer vos mots et produire une image, il doit être entraîné sur des montagnes de données, qui peuvent comprendre des milliards d'images extraites d'Internet, associées à des descriptions écrites.
Certains services, dont le système DALL-E d'OpenAI, ne divulguent pas les ensembles de données sur lesquels reposent leurs systèmes d'IA. Mais avec Stability Diffusion, Stability AI est clair sur ses origines. Son jeu de données de base a été entraîné sur des paires d'images et de textes sélectionnés pour leur aspect à partir d'un cache encore plus massif d'images et de textes provenant d'Internet. L'ensemble de données complet, connu sous le nom de LAION-5B, a été créé par l'association allemande d'intelligence artificielle LAION (pour Large-scale Artificial Intelligence Open Network, soit réseau ouvert d'intelligence artificielle à grande échelle).
Cette pratique consistant à récupérer des images ou d'autres contenus sur Internet pour former des ensembles de données n'est pas nouvelle et relève traditionnellement de ce que l'on appelle le fair use, principe juridique de la loi américaine sur le droit d'auteur qui autorise l'utilisation d'œuvres protégées par le droit d'auteur dans certaines situations. En effet, ces images, dont beaucoup peuvent être protégées par des droits d'auteur, sont utilisées d'une manière très différente, par exemple pour apprendre à un ordinateur à identifier des chats.
Mais les ensembles de données sont de plus en plus grands et forment des systèmes d'IA de plus en plus puissants, y compris, récemment, ces systèmes génératifs que n'importe qui peut utiliser pour créer des images remarquables en un instant.
Cette couverture a été générée par DALL-E
Des artistes en colère
Danger, dont les œuvres d'art comprennent des affiches pour des groupes comme Phish et Primus, est l'un des nombreux artistes professionnels qui ont déclaré qu'ils craignaient que les générateurs d'images IA ne menacent leur gagne-pain. Il craint que les images que les gens produisent avec les générateurs d'images IA ne remplacent certains de ses travaux plus « utilitaires », qui comprennent des supports comme des couvertures de livres et des illustrations pour des articles publiés en ligne. « Pourquoi allons-nous payer un artiste 1 000 dollars alors que nous pouvons avoir 1 000 images à choisir gratuitement ? », a-t-il demandé.
Tara McPherson, une artiste basée à Pittsburgh dont les œuvres figurent sur des jouets, des vêtements et dans des films comme le film oscarisé « Juno », s'inquiète également de la possibilité de perdre certains travaux au profit de l'IA. Elle se sent déçue et « exploitée » du fait que son travail a été inclus dans l'ensemble de données à l'origine de Stable Diffusion sans qu'elle en soit informée, a-t-elle déclaré. « À quel point cela va-t-il être facile ? À quel point cet art va-t-il devenir élégant ? Pour l'instant, c'est parfois un peu bancal, mais ça ne fait que commencer », s’est-elle interrogée.
Si les inquiétudes sont réelles, les recours ne sont pas clairs. Même si les images générées par l'IA ont un impact généralisé (par exemple en changeant les modèles commerciaux) cela ne signifie pas nécessairement qu'elles violent les droits d'auteur des artistes, selon Zahr Said, professeur de droit à l'Université de Washington. Et il serait prohibitif d'accorder une licence à chaque image d'un ensemble de données avant de l'utiliser, a-t-elle ajouté. « On peut avoir de la sympathie pour les communautés artistiques et vouloir les soutenir, mais aussi se dire qu'il n'y a pas moyen de le faire. Si nous faisions cela, cela reviendrait à dire que l'apprentissage automatique est impossible, a-t-elle conclu.
McPherson et Danger ont envisagé la possibilité d'apposer des filigranes sur leurs œuvres lors de leur mise en ligne afin de protéger les images (ou du moins de les rendre moins attrayantes). Mais McPherson a déclaré que lorsqu'elle a vu des amis artistes mettre des filigranes sur leurs images en ligne, cela « ruine l'art, et la joie des gens qui le regardent et y trouvent de l'inspiration ».
S'il le pouvait, Danger a déclaré qu'il retirerait ses images des ensembles de données utilisés pour former les systèmes d'IA. Mais le fait de retirer les images de l'œuvre d'un artiste d'un ensemble de données n'empêcherait pas Stable Diffusion de générer des images dans le style de cet artiste.
Une plainte en recours collectif est déposée
Matthew Butterick porte la casquette d'écrivain, designer, développeur et avocat. En novembre 2022, il s'est associé aux plaideurs en recours collectif Joseph Saveri, Cadio Zirpoli et Travis Manfredi du cabinet d'avocats Joseph Saveri pour intenter une action en justice contre GitHub Copilot pour son « piratage de logiciels open source sans précédent » (le procès est toujours en cours). Le cabinet d'avocats Joseph Saveri est spécialisé dans l'antitrust, les recours collectifs et les litiges complexes au nom de consommateurs, d'acheteurs et d'employés nationaux et internationaux dans divers secteurs.
Envoyé par Matthew Butterick
Stable Diffusion est un produit logiciel d'intelligence artificielle (IA), lancé en août 2022 par une société appelée Stability AI. Selon Matthew Butterick, Stable Diffusion contient des copies non autorisées de millions, voire de milliards, d'images protégées par le droit d'auteur. Ces copies ont été faites à l'insu ou sans le consentement des artistes.
Même en supposant des dommages nominaux de 1 $ par image, la valeur de ce détournement serait d'environ 5 milliards de dollars (à titre de comparaison, le plus grand vol d'art jamais réalisé a été le vol en 1990 de 13 œuvres d'art du musée Isabella Stewart Gardner, d'une valeur actuelle estimée à 500 millions de dollars.)
Stable Diffusion appartient à une catégorie de systèmes d'IA appelée IA générative. Ces systèmes sont entraînés sur un certain type de travail créatif – par exemple du texte, du code logiciel ou des images – puis remixent ces travaux pour dériver (ou « générer ») d'autres travaux du même type.
Après avoir copié les cinq milliards d'images (sans le consentement des artistes originaux) Stable Diffusion s'appuie sur un processus mathématique appelé diffusion pour stocker des copies compressées de ces images d'entraînement, qui à leur tour sont recombinées pour dériver d'autres images. C'est, en bref, un outil de collage du 21e siècle.
Ces images résultantes peuvent ou non ressembler extérieurement aux images d'entraînement. Néanmoins, ils sont dérivés de copies des images de formation et leur font concurrence sur le marché. Au minimum, la capacité de Stable Diffusion à inonder le marché avec un nombre pratiquement illimité d'images contrefaisantes infligera des dommages permanents au marché de l'art et des artistes.
Même le PDG de Stability AI, Emad Mostaque, a prévu que « les [futurs] modèles [IA] seront entièrement sous licence ». Mais la diffusion stable ne l'est pas. Pour Matthew, c'est un parasite qui, s'il est autorisé à proliférer, causera un préjudice irréparable aux artistes, aujourd'hui et à l'avenir.
La plainte
Comme allégué dans la plainte, Stable Diffusion est un produit d'intelligence artificielle utilisé par Stability AI, DeviantArt et Midjourney dans leurs produits d'image AI. Il a été formé sur des milliards d'images protégées par le droit d'auteur contenues dans l'ensemble de données LAION-5B, qui ont été téléchargées et utilisées sans compensation ni consentement des artistes. Si Stable Diffusion et des produits similaires sont autorisés à continuer à fonctionner comme ils le font actuellement, le résultat prévisible est qu'ils remplaceront les artistes mêmes dont les œuvres volées alimentent ces produits d'IA avec lesquels ils sont en concurrence. Les produits d'image IA ne sont pas seulement une violation des droits des artistes ; qu'ils le visent ou non, ces produits élimineront « l'artiste » comme cheminement de carrière viable. En plus d'obtenir réparation pour la conduite fautive, cette action en justice vise à empêcher ce résultat et à garantir que ces produits suivent les mêmes règles que toute autre nouvelle technologie impliquant l'utilisation de quantités massives de propriété intellectuelle. Si le streaming de musique peut être accompli dans le cadre de la loi, les produits d'IA le peuvent aussi.
« Alors que la technologie en plein essor continue de changer tous les aspects du monde moderne, il est essentiel que nous reconnaissions et protégions les droits des artistes contre le vol illégal et la fraude », a déclaré Joseph Saveri, fondateur du cabinet d'avocats Joseph Saveri, LLP. Il a poursuivi : « Cette affaire représente une lutte plus large pour la préservation des droits de propriété de tous les artistes et autres créateurs ».
« L'IA doit être juste et éthique pour tout le monde », a déclaré l'avocat/développeur Matthew Butterick. « Mais Stability AI, Midjourney et DeviantArt s'approprient le travail de milliers d'artistes sans consentement, sans crédit et sans compensation. En tant qu'avocat qui est également membre de longue date de la communauté des arts visuels, c'est un plaisir de se lever au nom d'autres artistes et poursuivre cette conversation essentielle sur la façon dont nous, les gens, voulons que l'IA coexiste avec la culture et la créativité humaines ».
Depuis sa fondation en 2000, DeviantArt est devenu un refuge pour les artistes de tous bords. Un aspect essentiel de la participation à la communauté DeviantArt pour les artistes est la pratique du partage d'images numériques de leurs œuvres. Aujourd'hui, DeviantArt se présente comme « la plus grande communauté artistique au monde », hébergeant des millions d'images. En même temps, il propose DreamUp, un produit qui enfreint illégalement les droits de sa propre communauté artistique. Pour ajouter l'insulte à l'injure, une grande partie des données d'entraînement pour Stable Diffusion (qui alimente DreamUp) était composée d'images extraites de DeviantArt sans l'autorisation des artistes qui les ont publiées.
Les accusés
Stability AI
Stability AI, fondée par Emad Mostaque, est basée à Londres.
Stability AI a financé LAION, une organisation allemande qui crée des ensembles de données d'images de plus en plus volumineux - sans consentement, crédit ou compensation pour les artistes originaux - à l'usage des sociétés d'IA.
Stability AI est le développeur de Stable Diffusion. Stability AI a formé Stable Diffusion à l'aide de l'ensemble de données LAION. Stability AI a également publié DreamStudio, une application payante qui regroupe Stable Diffusion dans une interface Web.
DeviantArt
DeviantArt a été fondée en 2000 et a longtemps été l'une des plus grandes communautés d'artistes sur le Web.
Comme l'ont montré Simon Willison et Andy Baio, des milliers (et probablement plus près de millions) d'images dans LAION ont été copiées à partir de DeviantArt et utilisées pour former Stable Diffusion.
Plutôt que de défendre sa communauté d'artistes en les protégeant contre la formation à l'IA, DeviantArt a plutôt choisi de sortir DreamUp, une application payante construite autour de Stable Diffusion. À son tour, un flot d'art généré par l'IA a inondé DeviantArt, évinçant les artistes humains.
Lorsqu'ils ont été confrontés à l'éthique et à la légalité de ces manœuvres lors d'une session de questions-réponses en direct en novembre 2022, les membres de l'équipe de direction de DeviantArt, dont le PDG Moti Levy, n'ont pas pu expliquer pourquoi ils avaient trahi leur communauté d'artistes en adoptant Stable Diffusion, tout en violant intentionnellement leur propre Conditions d'utilisation et politique de confidentialité.
Midjourney
Midjourney a été fondée en 2021 par David Holz à San Francisco. Midjourney propose un générateur de texte en image via Discord et une application Web.
Bien que se présentant comme un « laboratoire de recherche », Midjourney a cultivé un large public de clients payants qui utilisent professionnellement le générateur d'images de Midjourney. Holz a déclaré qu'il souhaitait que Midjourney soit « axé sur la création de tout ce qui est beau et artistique ».
À cette fin, Holz a admis que Midjourney est formé sur « une grande partie d'Internet ». Cependant, interrogé sur l'éthique de la copie massive d'images d'entraînement, il a répondu : « Il n'y a pas de lois spécifiques à ce sujet ». Et quand Holz a été interrogé sur le fait de permettre aux artistes de se retirer de la formation, il a dit : « Nous examinons cela. Le défi est maintenant de savoir quelles sont les règles ». « Nous sommes impatients d'aider M. Holz à découvrir les nombreuses lois étatiques et fédérales qui protègent les artistes et leur travail », ont ironisé Matthew Butterick et ses collègues.
Source : annonce de Matthew Butterick
Et vous ?
Quelle lecture faites-vous de la situation ?
Voir aussi :
La bande dessinée générée par l'IA perd la protection du droit d'auteur qui lui avait été accordée. L'USPTO estime que les œuvres protégées par le droit d'auteur nécessitent la paternité humaine