Meta a annoncé qu'il travaille sur un moyen de mieux détecter et identifier les images générées par l'IA sur ses plateformes de médias sociaux Facebook, Instagram et Threads. La technologie de détection de Meta informera les utilisateurs lorsqu'une image qu'ils voient dans leur fil d'actualité a été générée à l'aide de l'IA. La fonctionnalité concernait dans un premier les modèles d'IA de Meta, mais Nick Clegg, le président des affaires mondiales de Meta, a déclaré lors d'une récente interview qu'elle sera étendue aux images générées par les produits d'IA des concurrents tels qu'Adobe, Google, Midjourney, et bien d'autres.
L'annonce donne un premier aperçu d'un système émergent de normes que les entreprises technologiques sont en train de mettre au point pour atténuer les dommages potentiels associés aux outils d'IA générative, qui peuvent produire un contenu faux, mais d'apparence réaliste en réponse à de simples invites. L'approche de Meta s'inspire d'un modèle établi au cours de la dernière décennie par certaines de ces mêmes entreprises pour coordonner le retrait de contenus "interdits" ou jugés illégaux sur les plateformes en ligne, notamment les contenus violents et explicites, le matériel d'abus sexuel d'enfants (CSAM), etc.
Meta applique déjà un filigrane "Imaginé avec l'IA" aux images créées avec son propre générateur Imagine AI, et la société commencera à faire de même pour les photos générées par l'IA avec des produits de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. Clegg a déclaré qu'il est convaincu que les entreprises peuvent à ce stade étiqueter de manière fiable les images générées par l'IA, mais il a ajouté que les outils permettant de marquer les contenus audio et vidéo étaient plus compliqués et encore en cours de développement. Il a déclaré que Meta et toute l'industrie sont très en retard dans ce domaine.
« Même si la technologie n'est pas encore tout à fait au point, en particulier en ce qui concerne l'audio et la vidéo, nous espérons pouvoir créer une dynamique et inciter le reste de l'industrie à suivre », a déclaré Clegg. D'après lui, bien que Meta soit très vigilant quant à la manière dont ces médias peuvent être utilisés pour tromper, l'entreprise ne sera pas en mesure de tout détecter par ses propres moyens. Clegg a ajouté que Meta va commencer à exiger des utilisateurs qu'ils étiquettent leurs propres contenus audio et vidéo modifiés et appliquera des sanctions s'ils ne le font pas. Il n'a toutefois pas décrit les sanctions.
Clegg a également souligné que même si Meta sera en mesure d'identifier les images générées par l'IA, il existe toujours des moyens de manipuler ou de supprimer ces marqueurs. Pour éviter cela, la division FAIR (Fundamental AI Research) de Meta travaille sur un moyen d'implanter un filigrane dans une image pendant qu'elle est générée, de manière à ce qu'il ne puisse pas être supprimé. Toutefois, de nombreux experts sont sceptiques quant à l'efficacité de cette initiative et affirment que la mise en place d'une norme mondiale de filigrane pourrait s'avérer complexe et couteuse, avec des résultats peu satisfaisants.
Selon les critiques, les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'IA. « Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. La situation est encore plus complexe lorsque le contenu est mixte, c'est-à-dire qu'il est composé d'éléments audio, visuels et textuels.
En ce qui concerne l'audio et la vidéo, Clegg note : « alors que les entreprises commencent à inclure des signaux dans leurs générateurs d'images, elles n'ont pas commencé à les inclure dans les outils d'IA qui génèrent de l'audio et de la vidéo à la même échelle, de sorte que nous ne pouvons pas encore détecter ces signaux et étiqueter ce contenu provenant d'autres entreprises ». Des contenus audio et vidéo générés par l'IA ont déjà été utilisés pour diffuser de la désinformation. En 2022, une fausse vidéo d'un faux président ukrainien, Volodymyr Zelenskyy, demandant à ses troupes de se rendre est devenue virale.
Et en janvier, un enregistrement audio d'un faux président Biden disant aux électeurs de ne pas participer aux primaires présidentielles a été diffusé dans le New Hampshire. D'après les experts, les images générées par l'IA pourraient créer un tsunami de désinformation à l'approche des élections. Lorsque l'ancien président américain Donald Trump a été arrêté à New York en 2023, des images de ce qui semblait être sa fuite devant la police ont commencé à se répandre sur le Web. Des images montrant le président français Emmanuel Macron en train de ramasser des ordures dans les rues de Paris sont aussi devenues virales.
Une image montrant une explosion du Pentagone a fait le tour d'Internet l'année dernière. L'image avait brièvement fait chuter les actions à New York, avant que les autorités ne déclarent qu'elle n'était pas réelle. Clegg a déclaré que Meta collabore avec différentes entités, dont le Partenariat sur l'IA (une organisation à but non lucratif composée d'universitaires, de professionnels de la société civile et d'organisations médiatiques dont l'objectif est de veiller à ce que l'IA ait des résultats positifs pour les personnes et la société) afin d'élaborer des normes pouvant être utilisées pour identifier les images d'IA sur l'ensemble du Web.
« Pour ceux qui s'inquiètent de voir des contenus vidéo ou audio conçus pour tromper matériellement le public sur une question d'importance politique à l'approche des élections, nous serons très vigilants. Est-ce que je pense qu'il y a une possibilité que quelque chose se produise où, même si c'est rapidement détecté ou rapidement étiqueté, on nous accuse d'une manière ou d'une autre d'avoir failli à la tâche ? Oui, je pense que c'est possible, voire probable », a déclaré Clegg. Adobe a récemment lancé le système Content Credentials qui intègre des informations sur l'origine du contenu dans les métadonnées des images.
Google a étendu son filigrane SynthID aux fichiers audio après l'avoir lancé en version bêta pour les images. Le déluge d'images explicites de Taylor Swift générées par l'IA, qui a circulé sur des sites de médias sociaux tels que X, illustre la facilité avec laquelle ce type de contenu peut se propager en un rien de temps sur de vastes pans d'Internet. La solution de Meta n'est qu'un outil parmi d'autres pour lutter contre la nouvelle génération d'infox. Mais le succès de l'outil suscite beaucoup de scepticisme. De son côté, Clegg croit au succès de l'initiative, mais invite l'ensemble de l'industrie à s'engager sur la même voie.
Par ailleurs, Clegg a déclaré qu'il n'existait actuellement aucun mécanisme viable pour étiqueter le texte écrit généré par des outils d'IA comme ChatGPT. « Ce bateau a coulé », a-t-il noté. Un porte-parole de Meta a refusé de dire si l'entreprise appliquerait des étiquettes aux contenus générés par l'IA et partagés sur son service de messagerie chiffrée WhatsApp. Lundi, le conseil de surveillance indépendant de Meta a vivement critiqué la politique de l'entreprise en matière de deepfake (ou vidéos trompeuses), estimant qu'elle était trop restrictive et que le contenu devait être étiqueté plutôt que supprimé.
Clegg a déclaré qu'il était globalement d'accord avec ces critiques. Le conseil avait raison de dire que "la politique actuelle de Meta n'est tout simplement pas adaptée à un environnement où il y aura beaucoup plus de contenu synthétique et de contenu hybride qu'auparavant". Il a cité le nouveau partenariat en matière d'étiquetage comme preuve que le Meta s'orientait déjà dans la direction proposée par le conseil d'administration.
Source : Meta
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'initiative de Meta qui vise à étiqueter les photos générées par l'IA ?
L'approche de Meta sera-t-elle un succès ? Sera-t-elle d'une quelconque aide aux utilisateurs ?
Selon vous, pourquoi l'industrie a du mal à étiqueter les contenus textuels et visuels générés par l'IA ?
Voir aussi
Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation
Les législateurs californiens envisagent d'exiger que les photos et vidéos créées par l'IA soient marquées d'un filigrane, mais les projets de loi proposés sont contestés par les entreprises d'IA
Google intègre des filigranes inaudibles appelés SynthID dans sa musique générée par l'IA, la protection contre les contrefaçons ne devrait pas compromettre la vie privée des utilisateurs