IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Ces artistes ont découvert que leur travail était utilisé pour entraîner l'IA
Et maintenant ils sont furieux

Le , par Nancy Rey

6.3KPARTAGES

13  0 
Autrefois réservés à un groupe restreint d'initiés de la technologie, les systèmes d'IA texte-image sont de plus en plus populaires et puissants. Ces outils, qui offrent généralement quelques crédits gratuits avant d'être facturés, peuvent créer toutes sortes d'images avec seulement quelques mots, y compris celles qui évoquent clairement les œuvres de très nombreux artistes (si elles ne semblent pas avoir été créées par le même artiste). Les utilisateurs peuvent désigner ces artistes par des mots tels que "dans le style de" ou "par", accompagnés d'un nom spécifique. Et les utilisations actuelles de ces outils peuvent aller de l'amusement personnel à des cas plus commerciaux. Mais la découverte par des artistes que leur travail est utilisé pour entraîner l'IA soulève une préoccupation fondamentale : leur propre art est effectivement utilisé pour entraîner un programme informatique qui pourrait un jour s'attaquer à leur gagne-pain.


En quelques mois seulement, des millions de personnes se sont ruées sur les systèmes d'IA de conversion de texte en image et ils sont déjà utilisés pour créer des films expérimentaux, des couvertures de magazine et des images pour illustrer des articles de presse. Une image générée par un système d'IA appelé Midjourney a récemment remporté un concours d'art à la foire d'État du Colorado et a provoqué un tumulte parmi les artistes.

Mais la découverte par des artistes que leur travail est utilisé pour entraîner l'IA soulève une préoccupation encore plus fondamentale : leur propre art est effectivement utilisé pour entraîner un programme informatique qui pourrait un jour s'attaquer à leur gagne-pain. Quiconque génère des images avec des systèmes tels que Stable Diffusion ou DALL-E peut ensuite les vendre, les conditions spécifiques concernant le droit d'auteur et la propriété de ces images varient. « Je ne veux pas du tout participer à la machine qui va dévaloriser ce que je fais », a déclaré Daniel Danger, un illustrateur et graveur qui a appris qu'un certain nombre de ses œuvres avaient été utilisées pour entraîner Stable Diffusion.

Quand les beaux-arts deviennent des données

Les machines sont loin d'être magiques. Pour qu'un de ces systèmes puisse ingérer vos mots et produire une image, il doit être entraîné sur des montagnes de données, qui peuvent comprendre des milliards d'images extraites d'Internet, associées à des descriptions écrites.

Certains services, dont le système DALL-E d'OpenAI, ne divulguent pas les ensembles de données sur lesquels reposent leurs systèmes d'IA. Mais avec Stability Diffusion, Stability AI est clair sur ses origines. Son jeu de données de base a été entraîné sur des paires d'images et de textes sélectionnés pour leur aspect à partir d'un cache encore plus massif d'images et de textes provenant d'Internet. L'ensemble de données complet, connu sous le nom de LAION-5B, a été créé par l'association allemande d'intelligence artificielle LAION : "large-scale artificial intelligence open network" (réseau ouvert d'intelligence artificielle à grande échelle).

Cette pratique consistant à récupérer des images ou d'autres contenus sur Internet pour former des ensembles de données n'est pas nouvelle et relève traditionnellement de ce que l'on appelle le "fair use", principe juridique de la loi américaine sur le droit d'auteur qui autorise l'utilisation d'œuvres protégées par le droit d'auteur dans certaines situations. En effet, ces images, dont beaucoup peuvent être protégées par des droits d'auteur, sont utilisées d'une manière très différente, par exemple pour apprendre à un ordinateur à identifier des chats.

Mais les ensembles de données sont de plus en plus grands et forment des systèmes d'IA de plus en plus puissants, y compris, récemment, ces systèmes génératifs que n'importe qui peut utiliser pour créer des images remarquables en un instant.

Quelques outils permettent de faire des recherches dans l'ensemble de données LAION-5B, et un nombre croissant d'artistes professionnels découvrent que leur travail en fait partie. L'un de ces outils de recherche, conçu par l'écrivain et technologue Andy Baio et le programmeur Simon Willison, se distingue. Bien qu'il ne puisse être utilisé que pour rechercher une petite fraction des données d'apprentissage de Stable Diffusion (plus de 12 millions d'images), ses créateurs ont analysé les images d'art qu'il contient et ont déterminé que, sur les 25 premiers artistes dont le travail était représenté, Erin Hanson est l'un des trois seuls à être encore en vie. Ils ont trouvé 3 854 images de son art dans ce petit échantillon.

Erin Hanson est l'une des nombreuses artistes professionnelles dont le travail a été inclus dans l'ensemble de données utilisé pour former Stable Diffusion, qui a été lancé en août par la société londonienne Stability AI. Elle fait partie des nombreux artistes qui ont été mécontents d'apprendre que des photos de leurs œuvres ont été utilisées sans qu'ils en soient informés, sans qu'on leur demande leur consentement ou sans qu'ils paient pour leur utilisation.

Le fondateur et PDG de Stability AI, Emad Mostaque, a déclaré que l'art ne représente qu'une infime partie des données d'entraînement LAION sur lesquelles repose Stable Diffusion. « L'art représente bien moins de 0,1 % de l'ensemble de données et n'est créé que lorsque l'utilisateur le demande délibérément », a-t-il déclaré. Mais c'est un maigre réconfort pour certains artistes.

Des artistes en colère

Danger, dont les œuvres d'art comprennent des affiches pour des groupes comme Phish et Primus, est l'un des nombreux artistes professionnels qui ont déclaré qu'ils craignaient que les générateurs d'images IA ne menacent leur gagne-pain. Il craint que les images que les gens produisent avec les générateurs d'images IA ne remplacent certains de ses travaux plus "utilitaires", qui comprennent des supports comme des couvertures de livres et des illustrations pour des articles publiés en ligne. « Pourquoi allons-nous payer un artiste 1 000 dollars alors que nous pouvons avoir 1 000 images à choisir gratuitement ? », a-t-il demandé.

Tara McPherson, une artiste basée à Pittsburgh dont les œuvres figurent sur des jouets, des vêtements et dans des films comme le film oscarisé "Juno", s'inquiète également de la possibilité de perdre certains travaux au profit de l'IA. Elle se sent déçue et "exploitée" du fait que son travail a été inclus dans l'ensemble de données à l'origine de Stable Diffusion sans qu'elle en soit informée, a-t-elle déclaré. « À quel point cela va-t-il être facile ? À quel point cet art va-t-il devenir élégant ?Pour l'instant, c'est parfois un peu bancal, mais ça ne fait que commencer », s’est-elle interrogée.

Si les inquiétudes sont réelles, les recours ne sont pas clairs. Même si les images générées par l'IA ont un impact généralisé (par exemple en changeant les modèles commerciaux) cela ne signifie pas nécessairement qu'elles violent les droits d'auteur des artistes, selon Zahr Said, professeur de droit à l'Université de Washington. Et il serait prohibitif d'accorder une licence à chaque image d'un ensemble de données avant de l'utiliser, a-t-elle ajouté. « On peut avoir de la sympathie pour les communautés artistiques et vouloir les soutenir, mais aussi se dire qu'il n'y a pas moyen de le faire. Si nous faisions cela, cela reviendrait à dire que l'apprentissage automatique est impossible, a-t-elle conclu.

McPherson et Danger ont envisagé la possibilité d'apposer des filigranes sur leurs œuvres lors de leur mise en ligne afin de protéger les images (ou du moins de les rendre moins attrayantes). Mais McPherson a déclaré que lorsqu'elle a vu des amis artistes mettre des filigranes sur leurs images en ligne, cela « ruine l'art, et la joie des gens qui le regardent et y trouvent de l'inspiration ».

S'il le pouvait, Danger a déclaré qu'il retirerait ses images des ensembles de données utilisés pour former les systèmes d'IA. Mais le fait de retirer les images de l'œuvre d'un artiste d'un ensemble de données n'empêcherait pas Stable Diffusion de générer des images dans le style de cet artiste.

Pour commencer, le modèle d'IA a déjà été formé. Mais aussi, comme l'a dit Mostaque, des styles artistiques spécifiques pourraient toujours être sollicités par les utilisateurs grâce au modèle CLIP d'OpenAI, qui a été utilisé pour entraîner la diffusion stable à comprendre les connexions entre les mots et les images.

Christoph Schuhmann, l'un des fondateurs de LAION, a déclaré par courrier électronique que son groupe pense que la possibilité de choisir d'entrer ou de sortir des ensembles de données ne fonctionnera que si toutes les parties des modèles d'IA (qui peuvent être nombreuses) respectent ces choix. « Une approche unilatérale du traitement du consentement ne suffira pas dans le monde de l'IA ; nous avons besoin d'un système interprofessionnel pour gérer cela », a-t-il déclaré.

Offrir aux artistes un meilleur contrôle

Les partenaires Mathew Dryhurst et Holly Herndon, des artistes basés à Berlin qui expérimentent l'IA dans leur travail collaboratif, s'efforcent de relever ces défis. Avec deux autres collaborateurs, ils ont lancé Spawning, un outil destiné aux artistes qui, espèrent-ils, leur permettra de mieux comprendre et contrôler la manière dont leur art en ligne est utilisé dans les ensembles de données.

En septembre, Spawning a lancé un moteur de recherche capable de passer au peigne fin l'ensemble de données LAION-5B, haveibeentrained.com, et dans les semaines à venir, il a l'intention d'offrir un moyen pour les gens de se retirer ou d'entrer dans les ensembles de données utilisés pour la formation. Au cours du dernier mois, Dryhurst a rencontré des organisations qui forment de grands modèles d'IA. Il veut leur faire accepter que si Spawning rassemble des listes d'œuvres d'artistes qui ne veulent pas être inclus, ils respecteront ces demandes.

Selon Dryhurst, l'objectif de Spawning est de faire comprendre que la collecte consensuelle de données profite à tous. Et Mostaque est d'accord pour dire que les gens devraient pouvoir se retirer. Il a déclaré que Stability AI travaille avec de nombreux groupes sur les moyens de « permettre un meilleur contrôle du contenu des bases de données par la communauté » à l'avenir.

Dans un fil de discussion sur Twitter en septembre, il a déclaré que Stability est ouvert à la contribution aux moyens permettant aux gens de se retirer des ensembles de données, « par exemple en soutenant le travail de Herndon sur ce point avec de nombreux autres projets à venir ». « Je comprends personnellement les émotions que cela suscite, car les systèmes deviennent suffisamment intelligents pour comprendre les styles », a-t-il déclaré.

Schuhmann a déclaré que LAION travaillait également avec "divers groupes" pour déterminer comment permettre aux gens d'accepter ou de refuser d'inclure leurs images dans l'entraînement des modèles d'IA texte-image. "Nous prenons les sentiments et les préoccupations des artistes très au sérieux", a déclaré Schuhmann.

Hanson, pour sa part, ne voit aucun inconvénient à ce que ses œuvres soient utilisées pour l'apprentissage de l'IA, mais elle veut être payée. Si des images sont vendues qui ont été réalisées avec les systèmes d'IA entraînés sur leur travail, les artistes doivent être indemnisés, dit-elle même si ce sont « des fractions de centimes ».

Cela pourrait être à l'horizon. Selon Mostaque, Stability AI étudie la manière dont « les créatifs peuvent être récompensés pour leur travail », notamment parce que Stability AI publie elle-même des modèles d'IA, plutôt que d'utiliser ceux construits par d'autres. L'entreprise annoncera bientôt un plan visant à recueillir les commentaires de la communauté sur les "moyens pratiques" d'y parvenir, a-t-il ajouté.

Sources : Spawning, Twitter

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Les artistes commencent à vendre des œuvres d'art générées par IA sur des sites Web de photos, en utilisant un logiciel qui crée de l'art à la demande, certains artistes tentent d'en tirer profit

Une œuvre d'art générée par l'IA a remporté la première place à un concours de beaux-arts à une foire d'État et les artistes sont furieux

Dall-E 2 permet de générer des images à partir de quelques mots, mais le produit est-il votre ? Votre illustration numérique générée par l'IA pourrait ne pas être protégée par le droit d'auteur

Une intelligence artificielle a recomposé des photos "réalistes" de personnages historiques comme Napoléon Bonaparte et Jules César, à l'aide de réseaux adverses génératifs

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de onilink_
Membre émérite https://www.developpez.com
Le 09/01/2023 à 15:16
Ce modérateur est juste incompétent en plus d'être de mauvaise foi et de tenir des propos méchants et stupides. J'espère que c'est lui qui a été banni.
Car ça la fout un peu mal vu la taille de ce subreddit (22 million de membres quand même).

D'ailleurs, ça m'a pris 30 secondes pour aller sur le deviantart de l'artiste, et de voir qu'il postait des images exactement dans le même style depuis 2019...

En plus les mains sur le dessin sont bien dessinées, chose que les IA actuelles sont incapables de faire
15  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 09/01/2023 à 13:46
Citation Envoyé par Stéphane le calme Voir le message
Quelle lecture faites-vous de la situation ?
Quelle est votre position vis-à-vis des œuvres générées par IA ?
Cette situation devient ubuesque, c'est à dire qu'au nom de la chasse à l'IA certains deviennent les détenteurs de ce qu'est de l'art légitime (supposé créé par l'homme) et surtout ce qui n'en est pas (supposé créé par une IA).

Combien d'artistes risquent de se retrouver censurés parce que leurs œuvres pourraient être générées par IA?
11  0 
Avatar de Waikiki
Membre averti https://www.developpez.com
Le 09/01/2023 à 14:10
Bah Reddit quoi, c'est pas la première fois que sa modération fait de la merde. Certains perdent vraiment la boule dès qu'ils ont un semblant de pouvoir sur les autres.
8  0 
Avatar de
https://www.developpez.com
Le 11/01/2023 à 7:20
L'incompétence et les power trips des modérateurs sont pour ainsi dire la marque de fabrique de Reddit. Il y a des milliers de cas comme celui-ci chaque jour sur la plateforme.
6  0 
Avatar de Muchos
Membre expert https://www.developpez.com
Le 29/10/2022 à 11:26
Cette affaire souligne encore ce qu’est fondalement le capitalisme : l’appropriation.

Les œuvres n’ont pas été faites ou payées par les propriétaires de l’IA, mais ils s’en servent pour leur logiciel sans contrepartie. Même chose avec les ressources naturelles, les infrastructures publiques, les innovations nées dans les universités publiques, etc.
5  2 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 28/12/2022 à 22:15
Citation Envoyé par Mister Nono Voir le message
Si c'est généré par l'IA, alors il n'y a pas de rêve puisque l'IA est basé sur des données brutes issues d'expériences passées. Donc sans rêve, pas d'humain. Donc sans humain, pas d'intérêt puisque pas d'amour... CQFD

PS : Les données issues de rêves passés ne sont plus des rêves puisque appartenant au passé, et non à des événements souhaités ou espérés dans le futur. CQFD.
Hypothèses : Et si nos rêves étaient basés sur des données brutes issues d'expériences passées ? Et si l'amour était un équilibre biochimique établi au fil de l'évolution pour faire que les sexes puissent se tolérer au moins jusqu'à la reproduction ?

Je crains que le progrès scientifique ne batte en brèche certaines de nos certitudes les plus confortables... Mais voir la réalité en face est un progrès fondamental, nécessaire.
3  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 16/05/2023 à 8:18
ces algos de toute manière vol le travail de millions de personnes (légalement mais aussi illégalement).
que ce soit midjourney ou chatgpt.
Ils pillent le contenu des forums, les code source de projet open source...etc

Il faut que les forums et les codes inclus de base dans leurs licences et chate d'utilisation l'interdiction d'entrainement de model d'ia a des fin commercial.
Même chose pour les images, si des artistes partage sur DeviantArt leurs œuvres c'est pas pour qu'une boite se fasse de la tune avec en entrainement son ia dessus et reproduise le style de l'artiste.

Quand chatgpt répond a une question, sa réponse est une synthèse de plusieurs site web.
sauf dans des cas de niche ou il y'a peu de sujet sur internet et la chatgpt ressort mots pour mots la même réponse que le site web qui en parle et c'est assez facile de découvrir le vol de propriété intellectuel.

quand a ceux que ca dérange pas de se faire piller leurs savoirs, dite vous bien que chatgpt peut vous tuer à terme. Si j'ai mes réponses sur chatgpt pourquoi es ce que je m'emmerderai a aller chercher des infos sur developpez.net et wikipedia.
Donc je ne verrai plus les pub sur developpez.net et je ferai plus de don sur Wikipédia donc ces sites vont inéluctablement mourir. Ensuite chatgpt va lui aussi devenir inutile car il n'aura plus de nouvelles infos dans son dataset.

les outils comme chatgpt sont super intéressant et il ne faut pas les interdire mais il faut trouver un bon équilibre pour concilier les intérêts de tous le monde.
Ces algos n'invente rien, il ne font que répéter, si demain les entreprises vire les artistes ou les dev ou les avocats ou autres, ce sera la fin de l'innovation, enfin tout du moins un gros ralentissement.

Il faut pas oublier que beaucoup de dev qui ont un emploi pas trop mal payé et stable, profite du taff en entreprise pour maintenir leurs compétence et de leurs temps libre pour utiliser leurs connaissance pour faire des libs et code opensouce qui seront massivement utilisé par la suite par pleins d'entreprises gratuitement.
si demain on vire massivement beaucoup de dev ce seront fatalement moins de contributions a ces projets et donc très peu d'innovation.
c'est la même chose pour les artistes. Un artistes qui n'arrive pas a s'acheter à manger pour ces repas ne fera pas de contribution bénévole et ne fera aucune innovation car pas d'argent pour nnover.
4  1 
Avatar de Andy Oka
Membre habitué https://www.developpez.com
Le 24/10/2022 à 9:26
Citation Envoyé par Arya Nawel Voir le message
Pour l'essentiel, cela se résume à un changement de paradigme plus important . A terme presque tout sera automatisé.
Devrions nous permettre aux entreprises de voler notre travail, de former des machines pour nous remplacer et de récolter tous les bénéfices?
Au lieu de cela , nous devrions peut être commencer à rédiger des lois pour nous assurer que ces incroyables technologies profitent reellement à tous.
C'est la question principale, d'accord. L'automatisation existe depuis bien avant les ordinateurs.
2  0 
Avatar de Zefling
Expert confirmé https://www.developpez.com
Le 24/10/2022 à 10:00
Citation Envoyé par Arya Nawel Voir le message
Pour l'essentiel, cela se résume à un changement de paradigme plus important . A terme presque tout sera automatisé.
Devrions nous permettre aux entreprises de voler notre travail, de former des machines pour nous remplacer et de récolter tous les bénéfices?
Au lieu de cela , nous devrions peut être commencer à rédiger des lois pour nous assurer que ces incroyables technologies profitent reellement à tous.
Sur le principe, prendre des œuvres sans demander l'accord des auteurs, pour moi ça dépasse une limite.
Si certains artistes sont d'accords pour former des IA, tant mieux pour eux. Mais pour les autres, ça me semble pas très légale.
3  1 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 16/01/2023 à 12:43
Citation Envoyé par eric44000 Voir le message
Si les sociétés accusées diffusaient les œuvres d'art des artistes il y aurait violation du droit d'auteur. Mais là de quoi s'agit t-il ? De générer des images génériques. Une image de chat. Quel artiste peut revendiquer l'image de chat ?
Non, ce n'est pas l'image en tant que telle mais l'image dans le style de... qui doit générer des royalties pour l'artiste. Pourtant tous les artistes font dans le style de... Et quand ils fondent un style, d'autres le suivent sans forme de procès.
Justement non. Il y clairement du sur apprentissage très visible dans de très nombreux cas. Et quand on ne les voit pas, ça ne veut pas dire qu'il n'y en a pas.

Par exemple si beaucoup d'images identiques sont utilisées pour représenter un concept particulier (par ex si il y a eu une mauvaise gestion des doublons), l'IA va plagier voir littéralement copier coller cette image pour représenter ce concept.
Je me souviens qu'une version de midjourney représentait toujours "afghan girl" par une variation (ou un copier coller) du portrait "Sharbat Gula".
On voit aussi assez souvent des watermark sur les photos générées ou des signatures d'artistes sur les images de style digital painting.
Sur Dall-e il était fréquent d'obtenir en résultat une image source. Beaucoup étaient tombé sur la Joconde, la jeune fille à la perle ou des portraits connus.

Il faut utiliser les outils pour s'en rendre compte. Mais l'IA ne crée pas de nouvelles choses comme le ferait un humain. Elle fait un patchwork crédible en utilisant sa base de données (compressée et mémorisée par le modèle).
On est vraiment dans le même paradigme que ChatGPT, mais pour les images.

Le problème c'est qu'on a pas d'outil pour lister les images sources utilisées pour générer un résultat.
Et comme le dataset contient des milliards d'images, il est humainement impossible d'être capable de détecter le plagiat manuellement.
De plus les outils de recherche par image comme tineye gèrent très mal les variations, même légères sur les images
Ils sont totalement incapable de détecter un plagia qui paraîtrait grossier pour l’œil humain.
2  0