IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les chercheurs affirment que les filigranes actuels de l'IA sont faciles à supprimer
Microsoft a ajouté des filigranes dans Bing Image Creator et Google a conçu SynthID

Le , par Bruno

5PARTAGES

3  0 
Des chercheurs de l’université du Maryland ont examiné la fiabilité des filigranes actuels de l’IA et ont constaté qu’il est facile pour les mauvais acteurs d’ajouter ou de supprimer des filigranes. Les filigranes sont des logos ou des motifs visibles qui peuvent apparaître sur n’importe quel objet, y compris les images générées par l’IA, pour décourager la contrefaçon. Bien que les filigranes soient invisibles à l’œil nu, ils peuvent aider à lutter contre l’utilisation abusive de contenus générés par l’intelligence artificielle et peuvent même être intégrés dans des programmes d’apprentissage automatique mis au point par des géants de la technologie tels que Google. Les chercheurs ont pu facilement échapper aux méthodes actuelles de filigrane pendant les tests et ont trouvé qu’il était encore plus facile d’ajouter de faux emblèmes.

Les filigranes sont des dessins qui peuvent être apposés sur des images pour les identifier. Depuis les empreintes physiques sur le papier jusqu'au texte translucide et aux symboles que l'on voit aujourd'hui sur les photos numériques, ils ont évolué tout au long de l'histoire. Les filigranes traditionnels ne suffisent pas à identifier les images générées par l'IA, car ils sont souvent appliqués comme un timbre sur une image et peuvent facilement être supprimés. Par exemple, les filigranes discrets qui se trouvent dans le coin d'une image peuvent être supprimés à l'aide de techniques d'édition de base.


L'art génératif crée un terrain propice à la création de fausses images et d'autres informations erronées. Dans le contexte de l'intelligence artificielle, le filigrane peut permettre à un ordinateur de détecter si un texte ou une image est généré par une intelligence artificielle. Même s'ils sont invisibles à l'œil nu, les filigranes permettent de lutter contre l'utilisation abusive de contenus générés par l'intelligence artificielle et peuvent même être intégrés dans des programmes d'apprentissage automatique mis au point par des géants de la technologie tels que Google. D'autres acteurs majeurs dans ce domaine, de l'OpenAI à Meta et Amazon, se sont engagés à développer une technologie de filigrane pour lutter contre la désinformation.

Microsoft a amélioré son créateur d’images dans Bing Chat avec le nouveau modèle DALL-E 3 d’OpenAI, qui peut produire des images plus originales et plus réalistes à partir de textes. DALL-E 3 est intégré à Bing Chat et ChatGPT, ce qui permet aux utilisateurs de créer et d’affiner leurs images en conversant avec un chatbot. DALL-E 3 dispose également de nouveaux outils de sécurité pour éviter de créer des images inappropriées ou protégées par le droit d’auteur. Microsoft ajoute aussi des filigranes et un système de modération du contenu dans Bing Image Creator.

Il est difficile de trouver le bon équilibre entre l'imperceptibilité et la résistance aux manipulations d'images. Les filigranes très visibles, souvent ajoutés sous forme de couche avec un nom ou un logo en haut d'une image, posent également des problèmes esthétiques à des fins créatives ou commerciales. De même, certains filigranes imperceptibles développés précédemment peuvent être perdus par de simples techniques d'édition telles que le redimensionnement.

C'est pourquoi des chercheurs en informatique de l'université du Maryland (UMD) ont décidé d'examiner et de comprendre à quel point il est facile pour de mauvais acteurs d'ajouter ou de supprimer des filigranes. Soheil Feizi, professeur à l'UMD, a déclaré à Wired que les résultats obtenus par son équipe confirment son scepticisme quant à l'absence d'applications de filigrane fiables à l'heure actuelle. Les chercheurs ont pu facilement échapper aux méthodes actuelles de filigrane pendant les tests et ont trouvé qu'il était encore plus facile d'ajouter de faux emblèmes à des images qui n'avaient pas été générées par l'IA. Mais au-delà de la facilité avec laquelle il est possible de contourner les filigranes, une équipe de l'UMD a notamment mis au point un filigrane qu'il est pratiquement impossible de retirer d'un contenu sans compromettre complètement la propriété intellectuelle. Cette application permet de détecter le vol de produits.

Un nouveau type de filigrane pour les images d'IA

SynthID est un outil permettant de filigraner et d'identifier les images générées par l'IA. Cette technologie incorpore un filigrane numérique directement dans les pixels d'une image, ce qui le rend imperceptible à l'œil humain, mais détectable pour l'identification. Elle a été développée par Google DeepMind et affinée en partenariat avec Google Research. SynthID pourrait également évoluer avec d'autres modèles d'IA et d'autres modalités que l'imagerie, comme l'audio, la vidéo et le texte.

Google a conçu SynthID de manière à ce qu'il ne compromette pas la qualité de l'image et permette au filigrane de rester détectable, même après des modifications telles que l'ajout de filtres, la modification des couleurs et l'enregistrement avec différents schémas de compression avec perte - le plus souvent utilisés pour les JPEG.
SynthID utilise deux modèles d'apprentissage profond - pour le filigrane et l'identification - qui ont été entraînés ensemble sur un ensemble varié d'images. Le modèle combiné est optimisé en fonction d'une série d'objectifs, notamment l'identification correcte du contenu filigrané et l'amélioration de l'imperceptibilité en alignant visuellement le filigrane sur le contenu original.

SynthID permet aux clients de Vertex AI de créer des images générées par l'IA de manière responsable et de les identifier en toute confiance. Bien que cette technologie ne soit pas parfaite, nos tests internes montrent qu'elle est efficace contre de nombreuses manipulations d'images courantes.
L'approche combinée de SynthID :

  • Filigrane : SynthID peut ajouter un filigrane imperceptible aux images synthétiques produites par Imagen ;
  • Identification : En scannant une image à la recherche de son filigrane numérique, SynthID peut évaluer la probabilité qu'une image ait été créée par Imagen.


L'outil pourrait permettre aux enseignants de repérer le plagiat

Des motifs cachés, dissimulés à dessein dans les textes générés par l'IA, pourraient aider à les identifier en tant que tels, nous permettant ainsi de savoir si les mots que nous lisons ont été écrits par un humain ou non. Ces filigranes sont invisibles à l'œil nu, mais permettent aux ordinateurs de détecter que le texte provient probablement d'un système d'IA. S'ils sont intégrés dans de grands modèles de langage, ils pourraient contribuer à prévenir certains des problèmes que ces modèles ont déjà causés.

Par exemple, depuis que le chatbot ChatGPT d'OpenAI a été lancé, des étudiants ont déjà commencé à tricher en l'utilisant pour rédiger des dissertations à leur place. Le site d'information CNET a utilisé ChatGPT pour rédiger des articles, avant de devoir apporter des corrections à la suite d'accusations de plagiat. L'intégration de l'approche du filigrane dans ces systèmes avant leur diffusion pourrait contribuer à résoudre ces problèmes.

Un professeur de l’université de Lyon a découvert que la moitié de ses élèves de Master ont fait rédiger leurs copies par l’intelligence artificielle ChatGPT. Les copies étaient beaucoup trop ressemblantes, avec des similitudes dans la rédaction, les réponses et les anecdotes utilisées. « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté.

Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

Le professeur Arvind Narayanan de l’université de Princeton estime qu’il n’y a pas lieu de paniquer face aux outils d’IA. Cependant, il est évident que les enseignants ont du mal à utiliser des outils d’IA tels que ChatGPT, qui dans de nombreux cas pourraient résoudre les devoirs à la place des apprenants. Certains professeurs d’université mettent en place différentes stratégies pour rendre les devoirs plus difficiles à la tricherie avec ChatGPT, comme utiliser le support papier au lieu du support numérique, ou changer la manière de poser les questions pour demander aux étudiants de justifier leur travail.

Des motifs cachés, dissimulés dans les textes générés par l'IA, pourraient aider à identification

Dans des études, ces filigranes ont déjà été utilisés pour identifier avec une quasi-certitude des textes générés par l'IA. Des chercheurs de l'université du Maryland, par exemple, ont été en mesure de repérer le texte créé par le modèle de langage open-source de Meta, OPT-6.7B, à l'aide d'un algorithme de détection qu'ils ont construit. Ces travaux sont décrits dans un article qui n'a pas encore fait l'objet d'une évaluation par les pairs, et le code sera disponible gratuitement aux alentours du 15 février.

Les modèles linguistiques d'IA fonctionnent en prédisant et en générant un mot à la fois. Après chaque mot, l'algorithme de filigrane divise de manière aléatoire le vocabulaire du modèle de langage en mots figurant sur une "liste verte" et une "liste rouge", puis invite le modèle à choisir des mots figurant sur la liste verte.
Plus il y a de mots sur la liste verte dans un passage, plus il est probable que le texte ait été généré par une machine.

Un texte écrit par une personne a tendance à contenir un mélange de mots plus aléatoire. Par exemple, « pour le mot "beau", l'algorithme de filigrane pourrait classer le mot "fleur" en vert et le mot "orchidée" en rouge. Le modèle d'IA doté de l'algorithme de filigrane serait plus susceptible d'utiliser le mot "fleur" que le mot "orchidée" », explique Tom Goldstein, professeur adjoint à l'université du Maryland, qui a participé à la recherche.

ChatGPT fait partie des grands modèles de langage qui génèrent des textes si fluides qu'on pourrait les confondre avec des écrits humains. Ces modèles d'IA énoncent des faits avec assurance, mais sont connus pour leurs faussetés et leurs préjugés. Pour un œil non averti, il peut être presque impossible de distinguer un passage écrit par un modèle d'IA d'un passage écrit par un humain. La vitesse époustouflante du développement de l'IA signifie que de nouveaux modèles plus puissants rendent rapidement moins efficaces les outils dont nous disposons pour détecter les textes synthétiques. C'est une course permanente entre les développeurs d'IA pour créer de nouveaux outils de sécurité capables de rivaliser avec la dernière génération de modèles d'IA.

Bien que le filigrane des contenus générés par l'IA doive être amélioré avant de pouvoir passer avec succès des tests simulés similaires à ceux présentés dans les travaux de recherche, il est facile d'envisager un scénario où le filigrane numérique devient une course concurrentielle contre les pirates informatiques. En attendant qu'une nouvelle norme soit élaborée, nous ne pouvons qu'espérer le meilleur en ce qui concerne les nouveaux outils tels que SynthID de Google, un outil d'identification pour l'art génératif, qui continuera à être testé par les développeurs jusqu'à ce qu'il atteigne le grand public.

Mais le moment ne pourrait être mieux choisi pour l'innovation des leaders d'opinion. L'élection présidentielle de 2024 aux États-Unis étant sur le point d'occuper le devant de la scène, le contenu généré par l'IA pourrait jouer un rôle considérable dans l'évolution de l'opinion politique, avec des éléments tels que les "deep fake ads" (fausses publicités profondes). L'administration Biden a même pris note de la question, citant qu'il existe des préoccupations raisonnables quant à la manière dont l'intelligence artificielle peut être utilisée à des fins perturbatrices, en particulier dans le domaine de la désinformation.

Source : Computer science researchers at the University of Maryland

Et vous ?

Les filigranes actuels de l’IA sont-ils suffisamment fiables pour empêcher la contrefaçon ?

Comment les filigranes peuvent-ils être améliorés pour être plus efficaces ?

Comment les filigranes peuvent-ils être utilisés pour protéger la propriété intellectuelle et la vie privée des utilisateurs ?

Voir aussi :

Un professeur d'informatique de Princeton déclare qu'il n'y a pas à paniquer face à un générateur de foutaises comme ChatGPT, qu'il considère comme de « la poudre de perlimpinpin » en matière d'IA

Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

Microsoft annonce la disponibilité de DALL-E 3 pour tous les utilisateurs de Bing Chat et de Bing Image Creator, des filigranes permettent d'identifier les images comme étant générées par l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 09/02/2024 à 22:03
Et si on fait une capture d'écran de la photo, ça supprime ou conserve ces métadonnées?
3  0