IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta étiquette des photos réelles avec l'indication « créé par l'IA », d'après des plaintes de photographes
Qui ravivent les questionnements autour de l'étiquetage des contenus générés par l'IA

Le , par Patrick Ruiz

9PARTAGES

4  0 
Au début du mois de février, Meta a annoncé le début de l’étiquetage des photos créées à l'aide d'outils d'IA sur ses réseaux sociaux. Depuis le mois de mai, Meta a régulièrement apposé une étiquette « crée avec l’IA » sur certaines photos dans ses applications Facebook, Instagram et Threads. La manœuvre fait désormais l’objet de plaintes, d’après des rapports selon lesquelles Meta étiquette des photos réelles avec la même indication. Le tableau ravive les questionnements autour de l’étiquetage des contenus générés par l’IA tel que voulu par Meta qui appelle d’ailleurs à l’adoption de normes en la matière.

Il existe de nombreux exemples de Meta qui associent automatiquement le label à des photos qui n'ont pas été créées par l'IA. Par exemple, cette photo des Kolkata Knight Riders remportant le tournoi de cricket Indian Premier League. Il est à noter que le label n'est visible que sur les applications mobiles et non sur le web.

De nombreux autres photographes se sont inquiétés du fait que leurs images aient été étiquetées à tort avec le label « crée par l’IA. » Ces derniers estiment que le simple fait d'éditer une photo à l'aide d'un outil ne devrait pas être soumis à ce label.

L'ancien photographe de la Maison Blanche Pete Souza a déclaré dans un post Instagram qu'une de ses photos avait été étiquetée avec le nouveau label. Des rapports font état de ce que ce dernier a modifié le fonctionnement de son outil de recadrage mais que l'algorithme de Meta a quand même apposé cette étiquette.



Le tableau intervient dans un contexte de débats sur l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

Certains groupes de personnes et des autorités gouvernementales pensent que l'ajout d'un filigrane aux contenus générés par les systèmes d'IA générative pourrait aider à lutter contre la fraude et la désinformation, notamment pendant les périodes d'élection. La fonctionnalité vise à étiqueter le contenu généré par l'IA afin de permettre aux utilisateurs de le distinguer facilement du contenu créé par l'homme. Mais les experts sont sceptiques quant à l'efficacité de cette initiative et affirment que sa mise en place pourrait s'avérer complexe pour des résultats mitigés. Ce groupe est d’avis que les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'intelligence artificielle.

Il existe une longue tradition de marquage de documents et d'autres objets pour prouver leur authenticité, indiquer la propriété et lutter contre la contrefaçon. Selon certains experts, le filigrane idéal est celui qui est imperceptible et qui résiste à des manipulations simples telles que le recadrage, le redimensionnement, l'ajustement des couleurs et la conversion des formats numériques. Toutefois, un grand nombre d'entre eux ne considèrent pas les filigranes comme une solution efficace pouvant aider à lutter contre la fraude et la désinformation liées à l'IA. Selon eux, il y aura toujours un moyen de corrompre les filigranes, peu importe leur robustesse.



En effet, lorsqu'il s'agit de la variété de contenu que l'IA peut générer, et des nombreux modèles qui existent déjà, les choses se compliquent. Pour l'instant, il n'existe aucune norme en matière de filigrane, ce qui signifie que chaque entreprise d'IA utilise une méthode différente. Dall-E, par exemple, utilise un filigrane visible (mais une recherche rapide sur Google permet de trouver des tutoriels sur la manière de le supprimer), tandis que d'autres services utilisent par défaut des métadonnées ou des filigranes au niveau du pixel qui ne sont pas visibles pour les utilisateurs. Si certaines de ces méthodes sont difficiles à annuler, d'autres peuvent l'être facilement.

« Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. En outre, l'expert souligne également que les tentatives visant à filigraner les contenus textuels générés par l'IA pourraient s'avérer beaucoup plus difficiles que certains ne le croient. Par exemple, il existe plusieurs moyens de filigraner les textes générés par des chatbots d'IA tels que ChatGPT d'OpenAI.

Cela est possible en manipulant la manière dont les mots sont distribués, en faisant en sorte qu'un mot ou un ensemble de mots apparaissent plus fréquemment. Ces méthodes seraient détectables par une machine, mais pas nécessairement par un utilisateur humain. Cela signifie que les filigranes doivent être interprétés par une machine, puis signalés à un spectateur ou à un lecteur. La situation est d'autant plus complexe que le contenu est mixte, comme les éléments audio, image, vidéo et texte qui peuvent apparaître dans une seule vidéo TikTok. Par exemple, quelqu'un peut mettre du vrai son sur une image ou une vidéo qui a été manipulée.

Dans ce cas, les plateformes devront trouver un moyen d'indiquer qu'une partie, mais pas la totalité, du clip a été générée par l'IA. De plus, le simple fait d'étiqueter un contenu comme étant généré par l'IA n'aide pas beaucoup les utilisateurs à déterminer si un contenu est malveillant, trompeur ou destiné à divertir. « Parfois, les médias manipulés ne sont pas fondamentalement mauvais si vous faites des vidéos TikTok et qu'elles sont destinées à être amusantes et divertissantes », affirme Hany Farid, professeur à l'école d'information de l'université de Berkeley, qui a travaillé avec l'éditeur de logiciels Adobe sur son initiative d'authenticité des contenus.

Et vous ?

Que pensez-vous de la pose des étiquettes comme moyen de lutter contre la désinformation amplifiée par la mise à contribution de l’intelligence artificielle ?
Quelles solutions techniques vous semblent les plus efficaces en la matière ?

Voir aussi :

Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

Les législateurs californiens envisagent d'exiger que les photos et vidéos créées par l'IA soient marquées d'un filigrane, mais les projets de loi proposés sont contestés par les entreprises d'IA

Google intègre des filigranes inaudibles appelés SynthID dans sa musique générée par l'IA, la protection contre les contrefaçons ne devrait pas compromettre la vie privée des utilisateurs

Une erreur dans cette actualité ? Signalez-nous-la !