De nombreux logiciels ont une option de « partage d'informations avec le développeur », qui permet d'envoyer des données télémétriques comme la fréquence d'utilisation de l'application ou de certaines fonctionnalités, les raisons d'un plantage. À titre d’illustration, certains évoquent le cas de Microsoft qui aurait suscité l'ire de nombreuses personnes lorsqu'elle a déclaré que la télémétrie était activée par défaut et qu'il était impossible de la désactiver dans Windows 10. Très souvent, les utilisateurs autorisent automatiquement Adobe à accéder à leurs données, à moins qu'ils ne choisissent de ne pas utiliser ce service.
Mais les ensembles de données sont de plus en plus grands et forment des systèmes d'IA de plus en plus puissants, y compris, récemment, ces systèmes génératifs que n'importe qui peut utiliser pour créer des images remarquables en un instant. C'est dégoûtant, mais ce qui est pire, c'est de glisser une nouvelle méthode de partage et d'y faire adhérer les utilisateurs existants. Adobe a déclaré à PetaPixel que cette analyse de contenu "n'est pas nouvelle et est en place depuis une décennie". S'ils utilisaient l'apprentissage automatique à cette fin et l'ont dit il y a une décennie, c'est assez impressionnant, tout comme le fait qu'apparemment personne ne l'ait remarqué pendant tout ce temps. Cela semble peu probable. Je soupçonne que la politique a existé sous une certaine forme, mais qu'elle a discrètement évolué.
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Okay, we know... We made fun of Adobe when its cloud service went down. We've made fun of Corel Painter and Clip Studio. We joined in the protest No AI Generated Images protest. We made our stance on NFT's clear. But this is beyond making fun of. This is EW! EW! EW! <a href="https://t.co/40wBWYci7V">pic.twitter.com/40wBWYci7V</a></p>— @Krita@mastodon.art (@Krita_Painting) <a href="https://twitter.com/Krita_Painting/status/1610706677371932672?ref_src=twsrc%5Etfw">January 4, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]
Un examen plus approfondi de la FAQ sur l'analyse du contenu de l'entreprise montre que la règle a été mise à jour l'année dernière, en août, et qu'elle s'applique aux images, au son, aux vidéos, au texte ou aux documents stockés sur ses serveurs en cloud. L'entreprise précise qu'elle ne s'intéresse pas au contenu traité ou stocké localement sur les appareils des utilisateurs.
Envoyé par Extraits de la FAQ
Ces outils peuvent créer toutes sortes d'images avec seulement quelques mots, y compris celles qui évoquent clairement les œuvres de très nombreux artistes. Les utilisateurs peuvent désigner ces artistes par des mots tels que « dans le style de » ou « par », accompagnés d'un nom spécifique. Et les utilisations actuelles de ces outils peuvent aller de l'amusement personnel à des cas plus commerciaux.
La découverte par des artistes que leur travail est utilisé pour entraîner l'IA soulève une préoccupation encore plus fondamentale : leur propre art est effectivement utilisé pour entraîner un programme informatique qui pourrait un jour s'attaquer à leur gagne-pain. Quiconque génère des images avec des systèmes tels que Stable Diffusion ou DALL-E peut ensuite les vendre, les conditions spécifiques concernant le droit d'auteur et la propriété de ces images varient. « Je ne veux pas du tout participer à la machine qui va dévaloriser ce que je fais », a déclaré Daniel Danger, un illustrateur et graveur qui a appris qu'un certain nombre de ses œuvres avaient été utilisées pour entraîner Stable Diffusion.
Certains services, dont le système DALL-E d'OpenAI, ne divulguent pas les ensembles de données sur lesquels reposent leurs systèmes d'IA. Mais avec Stability Diffusion, Stability AI est clair sur ses origines. Son jeu de données de base a été entraîné sur des paires d'images et de textes sélectionnés pour leur aspect à partir d'un cache encore plus massif d'images et de textes provenant d'Internet. L'ensemble de données complet, connu sous le nom de LAION-5B, a été créé par l'association allemande d'intelligence artificielle LAION : "large-scale artificial intelligence open network" (réseau ouvert d'intelligence artificielle à grande échelle).
Bien qu'Adobe ait créé une gamme d'applications d'IA qui aident les utilisateurs à convertir une image 2D en une image 3D ou à effectuer des recherches rapides dans des vidéos pour trouver des clips spécifiques, la société ne dispose pas encore de son propre produit de conversion texte-image. En revanche, elle vend des travaux générés par l'IA sur sa plateforme d'images.
Un porte-parole de la société a déclaré : « Nous donnons aux clients le plein contrôle de leurs préférences et paramètres de confidentialité. La politique en discussion n'est pas nouvelle et est en place depuis une décennie pour nous aider à améliorer nos produits pour les clients. Pour tous ceux qui préfèrent que leur contenu soit exclu de l'analyse, nous offrons cette option ici. »
Tara McPherson, une artiste basée à Pittsburgh dont les œuvres figurent sur des jouets, des vêtements et dans des films comme le film oscarisé "Juno", s'inquiète également de la possibilité de perdre certains travaux au profit de l'IA. Elle se sent déçue et "exploitée" du fait que son travail a été inclus dans l'ensemble de données à l'origine de Stable Diffusion sans qu'elle en soit informée, a-t-elle déclaré. « À quel point cela va-t-il être facile ? À quel point cet art va-t-il devenir élégant ? Pour l'instant, c'est parfois un peu bancal, mais ça ne fait que commencer », s’est-elle interrogée.
« En ce qui concerne l'IA générative, Adobe n'utilise aucune donnée stockée sur les comptes Creative Cloud des clients pour entraîner ses fonctions expérimentales d'IA générative. Nous sommes en train de revoir notre politique pour mieux définir les cas d'utilisation de l'IA générative. »
Cette pratique consistant à récupérer des images ou d'autres contenus sur Internet pour former des ensembles de données n'est pas nouvelle et relève traditionnellement de ce que l'on appelle le "fair use", principe juridique de la loi américaine sur le droit d'auteur qui autorise l'utilisation d'œuvres protégées par le droit d'auteur dans certaines situations. En effet, ces images, dont beaucoup peuvent être protégées par des droits d'auteur, sont utilisées d'une manière très différente, par exemple pour apprendre à un ordinateur à identifier des chats.
Mais les ensembles de données sont de plus en plus grands et forment des systèmes d'IA de plus en plus puissants, y compris, récemment, ces systèmes génératifs que n'importe qui peut utiliser pour créer des images remarquables en un instant.
Source : Fondation Krita
Et vous ?
Quel est votre avis sur le sujet ?
Quel est votre sentiment face à cette situation ? Êtes-vous surpris par une telle initiative ?
Êtes-vous pour ou contre de telles initiatives ?
Voir aussi :
Ces artistes ont découvert que leur travail était utilisé pour entraîner l'IA et maintenant ils sont furieux
Les artistes commencent à vendre des œuvres d'art générées par IA sur des sites Web de photos, en utilisant un logiciel qui crée de l'art à la demande, certains artistes tentent d'en tirer profit