IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA
Pour empêcher la désinformation et la manipulation

Le , par Mathis Lucas

312PARTAGES

6  0 
Certains groupes de personnes et des autorités gouvernementales pensent que l'ajout d'un filigrane aux contenus générés par les systèmes d'IA générative pourrait aider à lutter contre la fraude et la désinformation, notamment pendant les périodes d'élection. La fonctionnalité vise à étiqueter le contenu généré par l'IA afin de permettre aux utilisateurs de le distinguer facilement du contenu créé par l'homme. Mais les experts sont sceptiques quant à l'efficacité de cette initiative et affirment que sa mise en place pourrait s'avérer complexe pour des résultats mitigés. Selon eux, les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'IA.

Une norme en matière de filigrane pour lutter contre la désinformation liée à l'IA

L'année dernière, un utilisateur de Midjourney a généré des images montrant le président français Emmanuel Macron en train de ramasser des ordures dans les rues de Paris et se mêler aux forces de l'ordre pour encadrer des manifestants. Les images ont rapidement été recensées comme des deepfakes, mais elles ont suscité les réactions de plusieurs milliers d'internautes en raison de leur réalisme. En outre, une fausse image d'une explosion près du Pentagone est devenue virale sur X l'année dernière et a été rapidement suivie par des images semblant montrer des explosions près de la Maison Blanche. Ces images ont également été générées par un outil d'IA.


Les experts l'ont rapidement signalé, mais pas avant que le marché boursier n'ait commencé à chuter. Il ne s'agit là que de quelques exemples des effets troublants que peuvent avoir les faux contenus dans le monde réel. L'essor de l'IA générative fait que les outils permettant de créer des deepfakes réalistes et de produire d'énormes quantités de textes convaincants sont désormais librement accessibles. Selon les analystes, le monde entre dans une nouvelle ère où il sera de plus en plus difficile de distinguer ce qui est réel de ce qui ne l'est pas. Ainsi, il est urgent de trouver un moyen efficace pouvant permettre aux internautes de distinguer le vrai du faux.

Pour cela, certains proposent d'adopter une norme mondiale en matière de filigrane afin d'harmoniser la façon dont les contenus générés par l'IA sont étiquetés. En octobre dernier, le président américain Joe Biden a signé un décret qui met l'accent sur la mise en place d'un filigrane pour les outils d'IA générative. La vice-présidente Kamala Harris a déclaré que "l'administration encourageait les entreprises technologiques à développer de nouveaux outils pour aider les consommateurs à discerner si le contenu audio et visuel est généré par l'IA". Mais pour le moment, il n'y a pas beaucoup de clarté sur la manière dont tout cela se déroulera exactement.

Le gouvernement chinois va plus loin en établissant un processus national standard de filigrane requis pour tout contenu visuel dérivé de l'IA. En revanche, aucun des deux pays n'a abordé la question des contenus textuels. La loi de l'Union européenne sur l'IA (EU Artificial Intelligence Act) ne prévoit aucune exigence en matière de filigrane. Selon certains analystes, les initiatives actuelles en matière de réglementation de l'IA souffrent de nombreuses lacunes que les autorités doivent corriger afin de protéger les élections. En outre, selon certains critiques, une norme mondiale en matière de filigrane ne pourra pas empêcher l'utilisation des modèles d'IA à mauvais escient.

« Il existe de nombreux modèles libres développés selon le principe de l'open source que tout le monde peut utiliser ou entraîner sur ses propres systèmes. Et même s'il y avait un filigrane sur chacun d'entre eux, l'utilisateur pourra facilement le supprimer. En fait, pratiquement n'importe quel réglage, délibéré ou non, permettrait de s'en débarrasser. Et cela ne nécessite pas des mois de travail sur un superordinateur, mais quelques heures sur un GPU grand public », note un critique. Par exemple, Stable Diffusion possède une fonction de filigrane, mais comme il s'agit d'un logiciel libre, n'importe qui peut simplement supprimer cette partie du code.

Certains experts pensent qu'un filigrane n'empêchera pas la manipulation par l'IA

Il existe une longue tradition de marquage de documents et d'autres objets pour prouver leur authenticité, indiquer la propriété et lutter contre la contrefaçon. Selon certains experts, le filigrane idéal est celui qui est imperceptible et qui résiste à des manipulations simples telles que le recadrage, le redimensionnement, l'ajustement des couleurs et la conversion des formats numériques. Toutefois, un grand nombre d'entre eux ne considèrent pas les filigranes comme une solution efficace pouvant aider à lutter contre la fraude et la désinformation liées à l'IA. Selon eux...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 09/02/2024 à 22:03
Et si on fait une capture d'écran de la photo, ça supprime ou conserve ces métadonnées?
4  0