IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Attaques d'empoisonnement spécifiques aux invites sur les modèles génératifs texte-image : Nightshade altère les données d'entraînement et permet aux artistes de lutter contre l'IA générative

Le , par Jade Emy

15PARTAGES

9  0 
Un nouvel outil permet aux artistes d'ajouter des modifications invisibles aux pixels de leurs œuvres avant de les mettre en ligne, de sorte que si elles sont intégrées dans un ensemble d'entraînement à l'IA, le modèle qui en résulte peut se briser de manière chaotique et imprévisible. L'outil, appelé Nightshade, est conçu comme un moyen de lutter contre les entreprises d'IA qui utilisent les œuvres d'artistes pour entraîner leurs modèles sans l'autorisation du créateur.

L'utilisation de cet outil pour "empoisonner" ces données d'entraînement pourrait endommager les futures itérations des modèles d'IA générateurs d'images, tels que DALL-E, Midjourney et Stable Diffusion, en rendant certains de leurs résultats inutiles : les chiens deviennent des chats, les voitures des vaches, et ainsi de suite.

Les sociétés d'IA telles que OpenAI, Meta, Google et Stability AI sont confrontées à une série de poursuites de la part d'artistes qui affirment que leurs œuvres protégées par le droit d'auteur et leurs informations personnelles ont été récupérées sans consentement ni compensation. Ben Zhao, professeur à l'université de Chicago, qui a dirigé l'équipe à l'origine de la création de Nightshade, espère que cette solution contribuera à faire pencher la balance des entreprises d'IA vers les artistes, en créant un puissant moyen de dissuasion contre le non-respect des droits d'auteur et de la propriété intellectuelle des artistes.


L'équipe de Zhao a également mis au point Glaze, un outil qui permet aux artistes de "masquer" leur style personnel pour éviter qu'il ne soit récupéré par les entreprises d'IA. Cet outil fonctionne de la même manière que Nightshade : il modifie les pixels des images de manière subtile, invisible à l'œil humain, mais manipule les modèles d'apprentissage automatique pour qu'ils interprètent l'image comme quelque chose de différent de ce qu'elle montre en réalité. L'équipe a l'intention d'intégrer Nightshade dans Glaze, et les artistes peuvent choisir d'utiliser ou non l'outil d'empoisonnement des données. L'équipe envisage également de rendre Nightshade open source, ce qui permettrait à d'autres de le bricoler et de créer leurs propres versions. Plus les gens l'utiliseront et créeront leurs propres versions, plus l'outil deviendra puissant, explique Zhao. Les ensembles de données pour les grands modèles d'IA peuvent être constitués de milliards d'images, donc plus il y a d'images empoisonnées qui peuvent être introduites dans le modèle, plus la technique causera de dégâts.

Nightshade exploite une faille de sécurité dans les modèles génératifs d'IA, qui découle du fait qu'ils sont entraînés sur de grandes quantités de données : dans ce cas, des images qui ont été récupérées sur l'internet. Nightshade s'attaque à ces images. Les artistes qui souhaitent mettre leurs œuvres en ligne, mais ne veulent pas que leurs images soient récupérées par des sociétés d'intelligence artificielle peuvent les télécharger sur Glaze et choisir de les masquer avec un style artistique différent du leur. Ils peuvent également choisir d'utiliser Nightshade. Lorsque les développeurs d'IA fouillent l'internet pour obtenir davantage de données afin d'améliorer un modèle d'IA existant ou d'en créer un nouveau, ces échantillons empoisonnés se frayent un chemin dans l'ensemble des données du modèle et provoquent un dysfonctionnement de celui-ci. Les échantillons de données empoisonnées peuvent manipuler les modèles pour qu'ils apprennent, par exemple, que les images de chapeaux sont des gâteaux et que les images de sacs à main sont des grille-pain. Les données empoisonnées sont très difficiles à supprimer, car il faut que les entreprises technologiques trouvent et suppriment minutieusement chaque échantillon corrompu.

Nightshade va faire réfléchir les entreprises d'IA à deux fois, "parce qu'elles ont la possibilité de détruire tout leur modèle en prenant notre travail sans notre consentement", déclare Eva Toorenent, une illustratrice et artiste qui a utilisé Glaze. "Je suis vraiment reconnaissante que nous disposions d'un outil qui peut aider à rendre le pouvoir aux artistes pour leur propre travail", ajoute Autumn Beverly, une autre artiste.

Les attaques par empoisonnement des données manipulent les données d'apprentissage pour introduire des comportements inattendus dans les modèles d'apprentissage automatique au moment de l'apprentissage. Pour les modèles génératifs texte-image avec des ensembles de données d'apprentissage massifs, la compréhension actuelle des attaques par empoisonnement suggère qu'une attaque réussie nécessiterait l'injection de millions d'échantillons empoisonnés dans leur pipeline d'apprentissage. Dans cet article, nous montrons que les attaques par empoisonnement peuvent réussir sur les modèles génératifs. Nous observons que les données d'entraînement par concept peuvent être assez limitées dans ces modèles, ce qui les rend vulnérables aux attaques d'empoisonnement spécifiques aux invites, qui ciblent la capacité d'un modèle à répondre à des invites individuelles.

Nous présentons Nightshade, une attaque d'empoisonnement optimisée et spécifique à l'invite, dans laquelle les échantillons d'empoisonnement sont visuellement identiques à des images bénignes avec des invites textuelles correspondantes. Les échantillons de poison Nightshade sont également optimisés pour leur puissance et peuvent corrompre une invite Stable Diffusion SDXL en <100 échantillons de poison. Les effets du poison Nightshade s'étendent aux concepts connexes, et plusieurs attaques peuvent être composées ensemble dans un seul message-guide. De manière surprenante, nous montrons qu'un nombre modéré d'attaques Nightshade peut déstabiliser les caractéristiques générales d'un modèle génératif texte-image, rendant ainsi inopérante sa capacité à générer des images significatives. Enfin, nous proposons l'utilisation de Nightshade` et d'outils similaires comme dernière défense pour les créateurs de contenu contre les racleurs de sites web qui ignorent les directives d'exclusion/de non-crawl, et nous discutons des implications possibles pour les formateurs de modèles et les créateurs de contenu.
Source : Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models

Et vous ?

Quel est votre avis sur ce nouvel outil Nightshade ?
Pensez-vous que cet outil est une solution durable les auteurs contre l'IA ?

Voir aussi :

Google défendra les utilisateurs de l'IA générative contre les plaintes pour violation du droit d'auteur, cette indemnisation comprend les données d'entrainement d'IA et les résultats générés

La "distillation pas-à-pas", un nouveau paradigme d'apprentissage pour surpasser les performances des grands LLM, avec moins de données d'entraînement et des modèles d'IA de plus petite taille

Des milliers d'auteurs s'opposent à l'exploitation de leur travail sans permission ni rémunération par l'IA générative, certains ont déjà intenté des actions en justice contre OpenAI

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de archqt
Membre émérite https://www.developpez.com
Le 25/10/2023 à 16:23
Certes elles ne volent pas les œuvres, mais s'en inspirent tellement que le pauvre graphiste ne sera pas embauché bien longtemps. Tout travail mérite salaire. Il est clair que ce métier devra évoluer un peu, faire un premier jet par IA, et ensuite finir la boulot, plutôt que faire tout de A à Z...
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 27/10/2023 à 15:30
Citation Envoyé par ab1___ Voir le message
C'est du terrorisme. Les auteurs de cet algorithme ont une volonté de nuire et de détruire le travail des autres. La propriété intellectuelle est une notion égocentrique qu'ul faudrait éradiquer: c'est l'une des bases du capitalisme destructeur de notre planète. Les modèles génératifs ne reproduisent pas les œuvres avec lesquelles elles ont été entraînées, elles s'en inspirent.
À qui appartiennent ces IA? À des sociétés ayant poussé le capitalisme à son paroxysme. Elles sont régulièrement au cœur de procès concernant les droits d'auteur et ne respectent la propriété intellectuelle que quand il s'agit de la leur.

Là, elles râlent parce qu'elles veulent revendre le beurre sans payer auparavant la crémière.
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 26/01/2024 à 8:57
Citation Envoyé par Bruno Voir le message
Malgré ses objectifs louables, il est essentiel d'évaluer attentivement l'efficacité et les implications éthiques de Nightshade dans le paysage complexe de l'intelligence artificielle et de la protection des droits d'auteur.
Nous pouvons faire exactement la même critique pour l'IA.
Donc est-il vraiment essentiel d'évaluer les implications éthiques de système de défense contre un outil dont l'éthique est encore discutée?

Un bon moyen de combattre un système est de rendre son résultat obsolète ou inefficace.
Pourquoi ne pas le faire pour l'IA? L'industrie l'a fait avec la recherche.
C'est bien plus efficace que de réclamer des règlementations.

Certains système d'IA vont chercher des sources qui ne sont pas OK, alors pourquoi celles ci ne pourraient pas se prémunir de ça en devenant un environnement indésirables pour celles ci?
1  0 
Avatar de tontonCD
Membre actif https://www.developpez.com
Le 01/02/2024 à 20:41
c'est très bien, jusqu'à présent tous les modèles d'IA se sont fait troller, pourquoi pas ChatGPT ? en plus ainsi les gens se rendront vraiment compte malgré la crédibilité (c'est bien foutu quand même) que ce n'est pas fiable
0  0 
Avatar de ciola
Membre régulier https://www.developpez.com
Le 25/10/2023 à 15:23
Quelle est la différence entre une IA fonctionnant par apprentissage basé sur le travail des humains et un artiste influencé par ses congénères?
0  1 
Avatar de ab1___
Membre du Club https://www.developpez.com
Le 27/10/2023 à 7:14
This is MAD: Model Autophagy Disease
https://youtu.be/PsHhqxwPqps?si=MUWTMQLysOQ2di-t

L'empoisonnement des données est le plus grand facteur de risque au niveau de l'AI et ceux qui le font consciemment mettent l'humanité en danger.
1  2 
Avatar de ab1___
Membre du Club https://www.developpez.com
Le 25/10/2023 à 6:39
C'est du terrorisme. Les auteurs de cet algorithme ont une volonté de nuire et de détruire le travail des autres. La propriété intellectuelle est une notion égocentrique qu'ul faudrait éradiquer: c'est l'une des bases du capitalisme destructeur de notre planète. Les modèles génératifs ne reproduisent pas les œuvres avec lesquelles elles ont été entraînées, elles s'en inspirent.
2  6