IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA
Pour empêcher la désinformation et la manipulation

Le , par Mathis Lucas

11PARTAGES

6  0 
Certains groupes de personnes et des autorités gouvernementales pensent que l'ajout d'un filigrane aux contenus générés par les systèmes d'IA générative pourrait aider à lutter contre la fraude et la désinformation, notamment pendant les périodes d'élection. La fonctionnalité vise à étiqueter le contenu généré par l'IA afin de permettre aux utilisateurs de le distinguer facilement du contenu créé par l'homme. Mais les experts sont sceptiques quant à l'efficacité de cette initiative et affirment que sa mise en place pourrait s'avérer complexe pour des résultats mitigés. Selon eux, les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'IA.

Une norme en matière de filigrane pour lutter contre la désinformation liée à l'IA

L'année dernière, un utilisateur de Midjourney a généré des images montrant le président français Emmanuel Macron en train de ramasser des ordures dans les rues de Paris et se mêler aux forces de l'ordre pour encadrer des manifestants. Les images ont rapidement été recensées comme des deepfakes, mais elles ont suscité les réactions de plusieurs milliers d'internautes en raison de leur réalisme. En outre, une fausse image d'une explosion près du Pentagone est devenue virale sur X l'année dernière et a été rapidement suivie par des images semblant montrer des explosions près de la Maison Blanche. Ces images ont également été générées par un outil d'IA.


Les experts l'ont rapidement signalé, mais pas avant que le marché boursier n'ait commencé à chuter. Il ne s'agit là que de quelques exemples des effets troublants que peuvent avoir les faux contenus dans le monde réel. L'essor de l'IA générative fait que les outils permettant de créer des deepfakes réalistes et de produire d'énormes quantités de textes convaincants sont désormais librement accessibles. Selon les analystes, le monde entre dans une nouvelle ère où il sera de plus en plus difficile de distinguer ce qui est réel de ce qui ne l'est pas. Ainsi, il est urgent de trouver un moyen efficace pouvant permettre aux internautes de distinguer le vrai du faux.

Pour cela, certains proposent d'adopter une norme mondiale en matière de filigrane afin d'harmoniser la façon dont les contenus générés par l'IA sont étiquetés. En octobre dernier, le président américain Joe Biden a signé un décret qui met l'accent sur la mise en place d'un filigrane pour les outils d'IA générative. La vice-présidente Kamala Harris a déclaré que "l'administration encourageait les entreprises technologiques à développer de nouveaux outils pour aider les consommateurs à discerner si le contenu audio et visuel est généré par l'IA". Mais pour le moment, il n'y a pas beaucoup de clarté sur la manière dont tout cela se déroulera exactement.

Le gouvernement chinois va plus loin en établissant un processus national standard de filigrane requis pour tout contenu visuel dérivé de l'IA. En revanche, aucun des deux pays n'a abordé la question des contenus textuels. La loi de l'Union européenne sur l'IA (EU Artificial Intelligence Act) ne prévoit aucune exigence en matière de filigrane. Selon certains analystes, les initiatives actuelles en matière de réglementation de l'IA souffrent de nombreuses lacunes que les autorités doivent corriger afin de protéger les élections. En outre, selon certains critiques, une norme mondiale en matière de filigrane ne pourra pas empêcher l'utilisation des modèles d'IA à mauvais escient.

« Il existe de nombreux modèles libres développés selon le principe de l'open source que tout le monde peut utiliser ou entraîner sur ses propres systèmes. Et même s'il y avait un filigrane sur chacun d'entre eux, l'utilisateur pourra facilement le supprimer. En fait, pratiquement n'importe quel réglage, délibéré ou non, permettrait de s'en débarrasser. Et cela ne nécessite pas des mois de travail sur un superordinateur, mais quelques heures sur un GPU grand public », note un critique. Par exemple, Stable Diffusion possède une fonction de filigrane, mais comme il s'agit d'un logiciel libre, n'importe qui peut simplement supprimer cette partie du code.

Certains experts pensent qu'un filigrane n'empêchera pas la manipulation par l'IA

Il existe une longue tradition de marquage de documents et d'autres objets pour prouver leur authenticité, indiquer la propriété et lutter contre la contrefaçon. Selon certains experts, le filigrane idéal est celui qui est imperceptible et qui résiste à des manipulations simples telles que le recadrage, le redimensionnement, l'ajustement des couleurs et la conversion des formats numériques. Toutefois, un grand nombre d'entre eux ne considèrent pas les filigranes comme une solution efficace pouvant aider à lutter contre la fraude et la désinformation liées à l'IA. Selon eux, il y aura toujours un moyen de corrompre les filigranes, peu importe leur robustesse.


En effet, lorsqu'il s'agit de la variété de contenu que l'IA peut générer, et des nombreux modèles qui existent déjà, les choses se compliquent. Pour l'instant, il n'existe aucune norme en matière de filigrane, ce qui signifie que chaque entreprise d'IA utilise une méthode différente. Dall-E, par exemple, utilise un filigrane visible (mais une recherche rapide sur Google permet de trouver des tutoriels sur la manière de le supprimer), tandis que d'autres services utilisent par défaut des métadonnées ou des filigranes au niveau du pixel qui ne sont pas visibles pour les utilisateurs. Si certaines de ces méthodes sont difficiles à annuler, d'autres peuvent l'être facilement.

« Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. En outre, l'expert souligne également que les tentatives visant à filigraner les contenus textuels générés par l'IA pourraient s'avérer beaucoup plus difficiles que certains ne le croient. Par exemple, il existe plusieurs moyens de filigraner les textes générés par des chatbots d'IA tels que ChatGPT d'OpenAI.

Cela est possible en manipulant la manière dont les mots sont distribués, en faisant en sorte qu'un mot ou un ensemble de mots apparaissent plus fréquemment. Ces méthodes seraient détectables par une machine, mais pas nécessairement par un utilisateur humain. Cela signifie que les filigranes doivent être interprétés par une machine, puis signalés à un spectateur ou à un lecteur. La situation est d'autant plus complexe que le contenu est mixte, comme les éléments audio, image, vidéo et texte qui peuvent apparaître dans une seule vidéo TikTok. Par exemple, quelqu'un peut mettre du vrai son sur une image ou une vidéo qui a été manipulée.

Dans ce cas, les plateformes devront trouver un moyen d'indiquer qu'une partie, mais pas la totalité, du clip a été générée par l'IA. De plus, le simple fait d'étiqueter un contenu comme étant généré par l'IA n'aide pas beaucoup les utilisateurs à déterminer si un contenu est malveillant, trompeur ou destiné à divertir. « Parfois, les médias manipulés ne sont pas fondamentalement mauvais si vous faites des vidéos TikTok et qu'elles sont destinées à être amusantes et divertissantes », affirme Hany Farid, professeur à l'école d'information de l'université de Berkeley, qui a travaillé avec l'éditeur de logiciels Adobe sur son initiative d'authenticité des contenus.

Les modèles d'IA auraient introduit une nouvelle forme de manipulation des médias

La place grandissante de l'IA dans la conscience du public a permis une autre forme de manipulation des médias. Tout comme les utilisateurs peuvent supposer que le contenu généré par l'IA est réel, l'existence même du contenu synthétique peut semer le doute sur l'authenticité d'une vidéo, d'une image ou d'un texte. Cela permet à un acteur malveillant de prétendre qu'un contenu authentique est faux, ce que l'on appelle "le dividende du menteur". Selon Gregory, Witness a constaté que de plus en plus de deepfakes ne sont plus utilisés pour désinformer, mais plutôt pour tenter de faire passer des médias réels pour des contenus générés par l'IA.

L'année dernière, un législateur de l'État du Tamil Nadu, en Inde, a prétendu qu'une fuite d'un enregistrement audio dans lequel il accusait son parti d'avoir volé plus de 3 milliards de dollars avait été générée par une IA, mais ce n'était pas le cas. En 2021, dans les semaines qui ont suivi le coup d'État militaire au Myanmar, la vidéo d'une femme faisant un exercice de danse tandis qu'un convoi militaire roulait derrière elle est devenue virale. De nombreux internautes ont prétendu que la vidéo avait été truquée, mais ce n'était pas le cas. Cette nouvelle forme de manipulation brouille davantage la frontière entre ce qui est réel et ce qui ne l'est pas.

À l'heure actuelle, rien n'empêche un acteur malveillant d'apposer un filigrane sur un contenu réel pour le faire passer pour un faux. Selon le professeur Farid, l'un des meilleurs moyens de se prémunir contre la falsification ou la corruption des filigranes est d'utiliser des signatures cryptographiques. « Si vous êtes OpenAI, vous devez avoir une clé cryptographique. Le filigrane contiendra des informations qui ne peuvent être connues que de la personne qui détient la clé », explique le professeur. Il a ajouté que d'autres formes de filigranes peuvent se trouver au niveau du pixel ou même dans les données d'entraînement à partir desquelles l'IA apprend.

« Nous entrons dans une ère où il est de plus en plus difficile de croire tout ce que nous lisons, voyons ou entendons en ligne. Et cela signifie non seulement que nous allons être trompés par des choses qui ne sont pas réelles, mais également que nous n'allons pas croire les choses réelles. Si la cassette d'Access Hollywood de Trump était publiée aujourd'hui, il aurait un déni plausible », explique le professeur Farid. Selon les bruits de couloir, la Maison Blanche envisagerait de mettre en œuvre son initiative avec l'aide du groupe à l'origine du protocole Internet open source connu sous le nom de "Coalition for Content Provenance and Authenticity" (C2PA).

La C2PA se concentre sur l'authentification des contenus par le biais d'un protocole appelé Content Credentials, bien que le groupe affirme que sa technologie peut être couplée au filigrane. Il s'agit d'un protocole open source qui s'appuie sur la cryptographie pour encoder des détails sur l'origine d'un élément de contenu. Cela signifie, par exemple, qu'une image est marquée par des informations provenant de l'appareil dont elle est issue, par tout outil d'édition (comme Photoshop) et, enfin, par la plateforme de médias sociaux sur laquelle elle est téléversée. Au fil du temps, ces informations créent une sorte d'historique, qui est enregistré.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'introduction d'une norme mondiale en matière de filigrane pour l'IA générative ?
Selon vous, cette solution pourra-t-elle empêcher l'utilisation de l'IA générative à mauvais escient ? Pourquoi ?
Selon vous, comment peut-on faciliter la détection des contenus générés par l'IA ? Que proposez-vous ?

Voir aussi

Le modèle d'IA de génération d'images Midjourney suspend les essais gratuits après que les deepfakes sont devenus viraux, mais la société impute ce choix à la création excessive de comptes jetables

2023, l'année de l'IA ? L'année a été marquée par l'émergence de l'IA générative, une explosion des investissements dans le domaine et l'accélération dans les législations

L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 09/02/2024 à 22:03
Et si on fait une capture d'écran de la photo, ça supprime ou conserve ces métadonnées?
4  0