Les modèles d'IA générative ont changé la façon dont nous créons et consommons le contenu, en particulier les images et l'art. Les modèles de diffusion tels que MidJourney et Stable Diffusion ont été entraînés sur de vastes ensembles de données d'images récupérées en ligne, dont beaucoup sont protégées par des droits d'auteur, privées ou sensibles. De nombreux artistes ont découvert un nombre important de leurs œuvres d'art dans des données d'entraînement telles que LAION-5B, sans qu'ils le sachent, sans leur consentement, sans qu'ils soient crédités ou sans qu'ils reçoivent une compensation.
Pour ne rien arranger, nombre de ces modèles sont désormais utilisés pour copier des artistes individuels, par le biais d'un processus appelé "imitation de style". Les utilisateurs particuliers peuvent prendre des œuvres d'art d'artistes humains, effectuer un « réglage fin » ou LoRA sur des modèles tels que la diffusion stable, et aboutir à un modèle capable de produire des images arbitraires dans le "style" de l'artiste cible, lorsqu'il est évoqué avec son nom en guise d'invite. Les artistes indépendants populaires trouvent en ligne des fac-similés de mauvaise qualité de leurs œuvres d'art, souvent avec leurs noms encore intégrés dans les métadonnées des messages-guides du modèle.
Le mimétisme stylistique produit un certain nombre de conséquences néfastes qui peuvent ne pas être évidentes à première vue. Les artistes dont le style est intentionnellement copié perdent non seulement des commissions et des revenus de base, mais les copies synthétiques de mauvaise qualité diffusées en ligne diluent leur marque et leur réputation. Plus important encore, les artistes associent leur style à leur identité même. Voir le style artistique qu'ils ont mis des années à développer utilisé pour créer du contenu sans leur consentement ou leur compensation s'apparente à une usurpation d'identité. Enfin, le mimétisme et son impact sur les artistes à succès ont démoralisé et découragé les jeunes artistes en herbe.
Art et intelligence artificielle : tensions croissantes autour de l'utilisation non autorisée
Les artistes découvrent que leur travail est utilisé pour entraîner des IA, ce qui soulève des préoccupations quant à la pérennité de leur gagne-pain. En quelques mois, des millions de personnes ont adopté ces systèmes d'IA pour créer des œuvres variées, suscitant des débats sur la propriété intellectuelle et les droits d'auteur. Des artistes, comme Daniel Danger et Tara McPherson, expriment leur inquiétude face à l'utilisation non autorisée de leurs œuvres et la menace que les générateurs d'images IA représentent pour leur carrière. Cependant, les solutions juridiques et pratiques pour protéger leur travail restent limitées et complexes.
En décembre 2022, les utilisateurs d'ArtStation ont protesté contre les images générées par IA, estimant que ces dernières volaient le travail des artistes. La plateforme, utilisée par les créateurs de jeux, films et médias, n'a pas de politique contre ces images, ce qui a suscité une colère croissante parmi ses utilisateurs. Les artistes ont spammé leurs portfolios avec des images de protestation, conduisant ArtStation à mettre en place une balise "NoAI" pour empêcher l'utilisation de leurs œuvres par les IA. Cependant, cette réponse n'a pas apaisé les utilisateurs, qui réclament une interdiction complète des images générées par IA sur le site.
Lincoln Michel, auteur de The Body Scout et Upright Beasts, aborde l'impact de l'intelligence artificielle sur les arts et la société dans son blog. En 2023, les IA réussissant des examens tels que le LSAT et le SAT ont suscité des inquiétudes. Michel démontre les limites de l'IA en demandant à différents programmes de créer une histoire de six mots, soulignant ses imperfections. Il critique l'utilisation abusive de l'IA par les grandes entreprises qui exploitent les œuvres d'artistes, menant à des grèves et poursuites. Des artistes, dont Daniel Danger, protestent contre l'utilisation non autorisée de leurs œuvres par des IA comme Stable Diffusion et DALL-E.
La menace de l'IA sur le monde artistique se manifeste par une surabondance de contenus générés par des algorithmes, perturbant même des magazines de science-fiction. Des milliers d'auteurs, comme Nora Roberts et Margaret Atwood, demandent aux entreprises d'IA de cesser d'utiliser leurs travaux sans compensation.
L'émergence d'IA génératives comme GPT-4 et Bard, qui utilisent des contenus sans autorisation, suscite des inquiétudes. Alexander Chee souligne que l'IA n'est pas nécessaire pour écrire des romans, pointant les motivations financières derrière cette technologie. Michel met en garde contre les disparités économiques exacerbées par l'IA, qui pourrait enrichir les riches et appauvrir les autres, automatisant des emplois peu qualifiés et augmentant la demande pour les professions hautement qualifiées. Les projections de PwC indiquent une contribution significative de l'IA au PIB mondial d'ici 2030, mais aussi des pertes d'emplois massives et l'accentuation des inégalités.
Début 2023, des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA. Une base de données divulguée révèle que Midjourney a exploité plus de 16 000 artistes, y compris des enfants, pour ses outils d'IA. La liste inclut des artistes célèbres comme Damien Hirst, Banksy et Picasso. Cette révélation soulève des débats éthiques et des accusations de « vol systématique à grande échelle », mettant en lumière l'exploitation flagrante du travail créatif pour des profits lucratifs.
Les implications juridiques sont également discutées, avec des litiges en cours sur les droits de propriété intellectuelle. Certains tribunaux soutiennent la protection par le droit d'auteur du contenu généré par l'IA, tandis que d'autres remettent en question la créativité humaine dans ce processus. Des artistes traditionnels appellent à des actions juridiques supplémentaires contre des entreprises comme Midjourney. Parallèlement, le débat sur les droits d'auteur s'étend à d'autres domaines, impliquant des entreprises telles qu'OpenAI et Microsoft.
Un artiste 3D exprime sa frustration après avoir perdu son travail à cause de l'IA de Midjourney. L'émergence de grands modèles de langage et d'IA générative pourrait accélérer l'adoption de l'IA, avec des prévisions de stimulation de l'économie mondiale de près de 15 700 milliards de dollars d'ici sept ans. Cependant, cette révolution entraînera des pertes massives d'emplois dans des secteurs vulnérables comme la conception graphique, où Midjourney est particulièrement influent.
En somme, l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains, soulevant des préoccupations éthiques et juridiques importantes. Des artistes musicaux célèbres, dont Pearl Jam, Nicki Minaj et Billie Eilish, ainsi que plus de 200 autres, ont signé une lettre ouverte de l'Alliance des droits des artistes critiquant l'utilisation de l'intelligence artificielle (IA) dans la création musicale. Ils dénoncent l'IA générative comme une menace pour les droits des artistes et leur art, soulignant les risques de violation des droits d'auteur et de dévalorisation du travail artistique. Cette lettre appelle à une action pour empêcher l'IA de remplacer ou de dévaluer le travail des artistes humains, et insiste sur la nécessité d'une rémunération équitable.
L'impact de Glaze et les défis persistants de la protection des œuvres
Il existe des moyens de défense contre l'apprentissage par l'IA, tels que Glaze, un outil qui ajoute une quantité imperceptible de bruit aux images pour empêcher les générateurs d'images de copier le style des artistes. Toutefois, ces solutions ne sont pas permanentes, surtout dans un contexte où les entreprises technologiques s'efforcent de maximiser leurs profits en développant des modèles d'IA toujours plus avancés. Ces progrès menacent de diluer les marques des artistes et de les remplacer sur le marché.
Glaze est conçu pour protéger les artistes en perturbant le mimétisme des modèles d'IA. Il comprend les modèles d'IA qui s'entraînent sur l'art humain et utilise des algorithmes d'apprentissage automatique pour apporter des modifications minimales aux œuvres d'art. Ces modifications sont invisibles pour les humains mais rendent les œuvres radicalement différentes pour les modèles d'IA. Par exemple, un portrait réaliste vitrifié peut sembler inchangé à un humain, mais un modèle d'IA le percevra comme un style abstrait moderne, à la Jackson Pollock. Ainsi, lorsqu'on demande au modèle de produire une œuvre imitant l'artiste original, le résultat sera très différent de ce qui est attendu.
Damien Riehl et Noah Rubin ont proposé une solution pour libérer les mélodies et les musiciens des poursuites pour plagiat en générant toutes les combinaisons possibles de mélodies et en les plaçant sous licence libre Creative Commons Zero. Chase Emmons suggère que malgré la domination potentielle de l'IA dans la musique populaire, la demande pour la musique humaine restera forte en raison de son authenticité. Albert Fong met en garde contre les conséquences d'une réglementation inadéquate de l'IA sur les industries créatives, tandis que David Usher exprime des sentiments mitigés sur l'avenir de la musique générée par l'IA et souligne la nécessité de soutenir la musique humaine dans un paysage numérique dominé par l'IA.
La situation des artistes face aux générateurs d'images par IA est complexe et préoccupante. Glaze, conçu pour protéger les œuvres artistiques du mimétisme de l'IA, semble être une bouée de sauvetage pour de nombreux créateurs. Cependant, malgré ses promesses et son adoption croissante, Glaze rencontre des défis majeurs, notamment les attaques visant à contourner ses protections et les retards dans l'approbation des demandes d'accès.
Le problème fondamental réside dans l'équilibre délicat entre l'innovation technologique et la protection des droits des créateurs. Les générateurs d'images par IA s'améliorent constamment, menaçant l'unicité des œuvres d'art et la reconnaissance de leurs auteurs. Les entreprises technologiques, motivées par les profits, mettent à jour leurs conditions d'utilisation pour extraire un maximum de données sans consentement explicite des artistes, exacerbant le problème.
Glaze ajoute du bruit imperceptible aux images pour empêcher l'IA de copier les styles des artistes, mais cette solution est temporaire, comme l'admet son créateur Ben Zhao. Des chercheurs ont déjà trouvé des moyens de contourner ces protections. Cette réalité souligne la nécessité d'une amélioration continue des outils de défense et d'une vigilance accrue face aux nouvelles menaces.
Les retards dans l'approbation des demandes d'accès à Glaze exacerbent la frustration des artistes, qui se sentent vulnérables face à la menace de voir leurs œuvres copiées sans leur consentement. Le processus de vérification manuel, bien que nécessaire pour empêcher les abus, ralentit la diffusion de l'outil à un moment où sa demande est en forte hausse. Cette situation est d'autant plus critique que les attaques contre Glaze montrent que même les meilleures protections actuelles ne sont pas infaillibles.
Ben Zhao, professeur à l'université de Chicago et créateur de ces outils, a déclaré que les retards dans l'approbation d'un nombre « croissant » de demandes d'accès étaient "graves". Comme il l'a récemment mentionné sur X (anciennement Twitter), l'"explosion de la demande" en juin ne se poursuivra probablement que si les menaces liées à l'IA continuent d'évoluer. Par conséquent, dans un avenir prévisible, les artistes en quête de protections contre l'IA devront patienter.
Le débat entre l'équipe de Glaze et les chercheurs en sécurité de Zurich sur la robustesse des protections souligne l'importance de la transparence et de la collaboration dans le développement de solutions de défense. Les critiques des chercheurs, bien que potentiellement déstabilisantes, peuvent également conduire à des améliorations nécessaires. Cependant, la publication des vulnérabilités par les chercheurs sans une collaboration préalable peut aussi mettre les artistes en danger en exposant leurs œuvres à des risques immédiats.
La situation actuelle des artistes rappelle l'importance d'une approche multifacette pour la protection de leurs œuvres. Outre les outils techniques comme Glaze, il est crucial de promouvoir des protections juridiques et des réglementations claires contre l'utilisation non autorisée des œuvres d'art par les IA.
Sources : Nicholas Carlini in a blog post, glaze(1, 2)
Et vous ?
Quel est votre avis sur le sujet ?
Dans quelle mesure Glaze et d'autres outils similaires peuvent-ils réellement protéger les artistes contre la copie par des IA de plus en plus sophistiquées ?
Les méthodes de contournement démontrées par les chercheurs en sécurité remettent-elles en question l'efficacité à long terme de Glaze pour protéger les œuvres artistiques ?
Quelles alternatives existent-elles pour les artistes qui cherchent à protéger leurs créations, compte tenu des limitations actuelles des outils comme Glaze ?
Que pensez-vous de la décision de ne pas publier des œuvres en ligne pour se prémunir contre les IA génératives : êtes-vous favorable ou opposé ?
Voir aussi :
Ces artistes ont découvert que leur travail était utilisé pour entraîner l'IA et maintenant ils sont furieux
Les artistes se révoltent contre les œuvres d'art générées par l'IA sur le site de portfolios ArtStation et inondent la plateforme d'images portant le message : "non aux images générées par l'IA"
L'impact de l'IA sur les arts et la société : à la lumière des événements de 2023, peut-on affirmer que l'IA fera perdre du temps à tout le monde ? Une analyse de Lincoln Michel
Des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA, l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains