IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les chercheurs affirment que les filigranes actuels de l'IA sont faciles à supprimer
Microsoft a ajouté des filigranes dans Bing Image Creator et Google a conçu SynthID

Le , par Bruno

15PARTAGES

3  0 
Des chercheurs de l’université du Maryland ont examiné la fiabilité des filigranes actuels de l’IA et ont constaté qu’il est facile pour les mauvais acteurs d’ajouter ou de supprimer des filigranes. Les filigranes sont des logos ou des motifs visibles qui peuvent apparaître sur n’importe quel objet, y compris les images générées par l’IA, pour décourager la contrefaçon. Bien que les filigranes soient invisibles à l’œil nu, ils peuvent aider à lutter contre l’utilisation abusive de contenus générés par l’intelligence artificielle et peuvent même être intégrés dans des programmes d’apprentissage automatique mis au point par des géants de la technologie tels que Google. Les chercheurs ont pu facilement échapper aux méthodes actuelles de filigrane pendant les tests et ont trouvé qu’il était encore plus facile d’ajouter de faux emblèmes.

Les filigranes sont des dessins qui peuvent être apposés sur des images pour les identifier. Depuis les empreintes physiques sur le papier jusqu'au texte translucide et aux symboles que l'on voit aujourd'hui sur les photos numériques, ils ont évolué tout au long de l'histoire. Les filigranes traditionnels ne suffisent pas à identifier les images générées par l'IA, car ils sont souvent appliqués comme un timbre sur une image et peuvent facilement être supprimés. Par exemple, les filigranes discrets qui se trouvent dans le coin d'une image peuvent être supprimés à l'aide de techniques d'édition de base.


L'art génératif crée un terrain propice à la création de fausses images et d'autres informations erronées. Dans le contexte de l'intelligence artificielle, le filigrane peut permettre à un ordinateur de détecter si un texte ou une image est généré par une intelligence artificielle. Même s'ils sont invisibles à l'œil nu, les filigranes permettent de lutter contre l'utilisation abusive de contenus générés par l'intelligence artificielle et peuvent même être intégrés dans des programmes d'apprentissage automatique mis au point par des géants de la technologie tels que Google. D'autres acteurs majeurs dans ce domaine, de l'OpenAI à Meta et Amazon, se sont engagés à développer une technologie de filigrane pour lutter contre la désinformation.

Microsoft a amélioré son créateur d’images dans Bing Chat avec le nouveau modèle DALL-E 3 d’OpenAI, qui peut produire des images plus originales et plus réalistes à partir de textes. DALL-E 3 est intégré à Bing Chat et ChatGPT, ce qui permet aux utilisateurs de créer et d’affiner leurs images en conversant avec un chatbot. DALL-E 3 dispose également de nouveaux outils de sécurité pour éviter de créer des images inappropriées ou protégées par le droit d’auteur. Microsoft ajoute aussi des filigranes et un système de modération du contenu dans Bing Image Creator.

Il est difficile de trouver le bon équilibre entre l'imperceptibilité et la résistance aux manipulations d'images. Les filigranes très visibles, souvent ajoutés sous forme de couche avec un nom ou un logo en haut d'une image, posent également des problèmes esthétiques à des fins créatives ou commerciales. De même, certains filigranes imperceptibles développés précédemment peuvent être perdus par de simples techniques d'édition telles que le redimensionnement.

C'est pourquoi des chercheurs en informatique de l'université du Maryland (UMD) ont décidé d'examiner et de comprendre à quel point il est facile pour de mauvais acteurs d'ajouter ou de supprimer des filigranes. Soheil Feizi, professeur à l'UMD, a déclaré à Wired que les résultats obtenus par son équipe confirment son scepticisme quant à l'absence d'applications de filigrane fiables à l'heure actuelle. Les chercheurs ont pu facilement échapper aux méthodes actuelles de filigrane pendant les tests et ont trouvé qu'il était encore plus facile d'ajouter de faux emblèmes à des images qui n'avaient pas été générées par l'IA. Mais au-delà de la facilité avec laquelle il est possible de contourner les filigranes, une équipe de l'UMD a notamment mis au point un filigrane qu'il est pratiquement impossible de retirer d'un contenu sans compromettre complètement la propriété intellectuelle. Cette application permet de détecter le vol de produits.

Un nouveau type de filigrane pour les images d'IA

SynthID est un outil permettant de filigraner et d'identifier les images générées par l'IA. Cette technologie incorpore un filigrane numérique directement dans les pixels d'une image, ce qui le rend imperceptible à l'œil humain, mais détectable pour l'identification. Elle a été développée par Google DeepMind et affinée en partenariat avec Google Research. SynthID pourrait également évoluer avec d'autres modèles d'IA et d'autres modalités que l'imagerie, comme l'audio, la vidéo et le texte.

Google a conçu SynthID de manière à ce qu'il ne compromette pas la qualité de l'image et permette au filigrane de rester détectable, même après des modifications telles que l'ajout de filtres, la modification des couleurs et l'enregistrement avec différents schémas de compression avec perte - le plus souvent utilisés pour les JPEG.
SynthID utilise deux modèles d'apprentissage profond - pour le filigrane et l'identification - qui ont été entraînés ensemble sur un ensemble varié d'images. Le modèle combiné est optimisé en fonction d'une série d'objectifs, notamment l'identification correcte du contenu filigrané et l'amélioration de l'imperceptibilité en alignant visuellement le filigrane sur le contenu original.

SynthID permet aux clients de Vertex AI de créer des images générées par l'IA de manière responsable et de les identifier en toute confiance. Bien que cette technologie ne soit pas parfaite, nos tests internes montrent qu'elle est efficace contre de nombreuses manipulations d'images courantes.
L'approche combinée de SynthID :

  • Filigrane : SynthID peut ajouter un filigrane imperceptible aux images synthétiques produites par Imagen ;
  • Identification : En scannant une image à la recherche de son filigrane numérique, SynthID peut évaluer la probabilité qu'une image ait été créée par Imagen.


L'outil pourrait permettre aux enseignants de repérer le plagiat

Des motifs cachés, dissimulés à dessein dans les textes générés par l'IA, pourraient aider à les identifier en tant que tels, nous permettant ainsi de savoir si les mots que nous lisons ont été écrits par un humain ou non. Ces filigranes sont invisibles à l'œil nu, mais permettent aux ordinateurs de détecter que le texte provient probablement d'un système d'IA. S'ils sont intégrés dans de grands modèles de langage, ils pourraient contribuer à prévenir certains des problèmes que ces modèles ont déjà causés.

Par exemple, depuis que le chatbot ChatGPT d'OpenAI a été lancé, des étudiants ont déjà commencé à tricher en l'utilisant pour rédiger des dissertations à leur place. Le site d'information CNET a utilisé ChatGPT pour rédiger des articles, avant de devoir apporter des corrections à la suite d'accusations de plagiat. L'intégration de l'approche du filigrane dans ces systèmes avant leur diffusion pourrait contribuer à résoudre ces problèmes.

Un professeur de l’université de Lyon a découvert que la moitié de ses élèves de Master ont fait rédiger leurs copies par l’intelligence artificielle ChatGPT. Les copies étaient beaucoup trop ressemblantes, avec des similitudes dans la rédaction, les réponses et les anecdotes utilisées. « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté.

Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

Le professeur Arvind Narayanan de l’université de Princeton estime qu’il n’y a pas lieu de paniquer face aux outils d’IA. Cependant, il est évident que les enseignants ont du mal à utiliser des outils d’IA tels que ChatGPT, qui dans de nombreux cas pourraient résoudre les devoirs à la place des apprenants. Certains professeurs d’université mettent en place différentes stratégies pour rendre les devoirs plus difficiles à la tricherie avec ChatGPT, comme utiliser le support papier au lieu du support numérique, ou changer la manière de poser les questions pour demander aux étudiants de justifier leur travail.

Des motifs cachés, dissimulés dans les textes générés par l'IA, pourraient aider à identification

Dans des études, ces filigranes ont déjà été utilisés pour identifier avec une quasi-certitude des textes générés par l'IA. Des chercheurs de l'université du Maryland, par exemple, ont été en mesure de repérer le texte créé par le modèle de langage open-source de Meta, OPT-6.7B, à l'aide d'un algorithme de détection qu'ils ont construit. Ces travaux sont décrits dans un article qui n'a pas encore fait l'objet d'une évaluation par les pairs, et le code sera disponible gratuitement aux alentours du 15 février.

Les modèles linguistiques d'IA fonctionnent en prédisant et en générant un mot à la fois. Après chaque mot, l'algorithme de filigrane divise de manière aléatoire le vocabulaire du modèle de langage en mots figurant sur une "liste verte" et une...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 09/02/2024 à 22:03
Et si on fait une capture d'écran de la photo, ça supprime ou conserve ces métadonnées?
4  0