
La société a déclaré que l'outil identifiait correctement les images créées par DALL-E 3 dans environ 98 % des cas lors de tests internes et qu'il pouvait gérer des modifications courantes telles que la compression, le recadrage et les changements de saturation avec un impact minimal.
Le créateur de ChatGPT prévoit également d'ajouter un filigrane inviolable pour marquer les contenus numériques tels que les photos ou les fichiers audio à l'aide d'un signal qui devrait être difficile à supprimer.
Dans le cadre de ses efforts, OpenAI a également rejoint un groupe industriel comprenant Google, Microsoft et Adobe et prévoit de fournir une norme qui aiderait à retracer l'origine des différents médias.
En avril, pendant les élections générales en cours en Inde, de fausses vidéos de deux acteurs de Bollywood critiquant le premier ministre Narendra Modi sont devenues virales en ligne.
Les contenus générés par l'IA et les « deepfakes » sont de plus en plus utilisés en Inde et lors d'élections ailleurs dans le monde, notamment aux États-Unis, au Pakistan et en Indonésie.
OpenAI a déclaré qu'elle se joignait à Microsoft pour lancer un fonds de « résilience sociétale » de 2 millions de dollars afin de soutenir l'éducation à l'IA.
L'annonce par OpenAI des outils de détection des contenus générés par sa technologie est présentée ci-dessous :
Comprendre la source de ce que nous voyons et entendons en ligne
OpenAI introduit de nouveaux outils pour aider les chercheurs à étudier l'authenticité des contenus et rejoint le comité directeur de la Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité des contenus).
Partout dans le monde, les gens adoptent l'IA générative pour créer et éditer des images, des vidéos et du son de manière à stimuler la créativité, la productivité et l'apprentissage. Le contenu audiovisuel généré devenant de plus en plus courant, OpenAI pense qu'il sera de plus en plus important pour la société dans son ensemble d'adopter de nouvelles technologies et normes qui aideront les gens à comprendre les outils utilisés pour créer le contenu qu'ils trouvent en ligne.
OpenAI relève ce défi de deux manières : premièrement, en s'associant à d'autres pour adopter, développer et promouvoir une norme ouverte qui peut aider les gens à vérifier les outils utilisés pour créer ou éditer de nombreux types de contenu numérique, et deuxièmement, en créant une nouvelle technologie qui aide spécifiquement les gens à identifier le contenu créé par nos propres outils.
Contribuer aux normes d'authenticité
Le monde a besoin de moyens communs pour partager des informations sur la façon dont le contenu numérique a été créé. Les normes peuvent aider à clarifier la façon dont le contenu a été créé et à fournir d'autres informations sur ses origines d'une manière facile à reconnaître dans de nombreuses situations - que ce contenu soit la sortie brute d'un appareil photo ou une création artistique d'un outil tel que DALL-E 3.
Aujourd'hui, OpenAI rejoint le comité directeur de la C2PA, la Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité des contenus). La C2PA est une norme largement utilisée pour la certification des contenus numériques, développée et adoptée par un large éventail d'acteurs, dont des éditeurs de logiciels, des fabricants de caméras et des plateformes en ligne. La C2PA peut être utilisée pour prouver que le contenu provient d'une source particulière. OpenAI se réjouit de pouvoir contribuer au développement de cette norme, qu'elle considère comme un aspect important de son approche.
Au début de cette année, OpenAI a commencé à ajouter des métadonnées C2PA à toutes les images créées et éditées par DALL-E 3, son dernier modèle d'image, dans ChatGPT et l'API OpenAI. Elle intégrera les métadonnées C2PA pour Sora, son modèle de génération de vidéos, lorsque ce dernier sera lancé à grande échelle.
Il est toujours possible de créer des contenus trompeurs sans ces informations (ou de les supprimer), mais il n'est pas facile de les falsifier ou de les modifier, ce qui en fait une ressource importante pour instaurer la confiance. Au fur et à mesure de l'adoption de la norme, ces informations peuvent accompagner le contenu tout au long de son cycle de vie, qu'il s'agisse du partage, de la modification ou de la réutilisation. Au fil du temps, OpenAI pense que ce type de métadonnées sera attendu par les utilisateurs et comblera une lacune cruciale dans les pratiques d'authentification des contenus numériques.
Pour favoriser l'adoption et la compréhension des normes de provenance, y compris la C2PA, OpenAI s'associe à Microsoft pour lancer un fonds de résilience sociétale. Ce fonds de 2 millions de dollars soutiendra l'éducation et la compréhension de l'IA, notamment par l'intermédiaire d'organisations telles que Older Adults Technology Services de l'AARP, International IDEA et Partnership on AI.
Ce qu'OpenAI est en train de construire : de nouveaux outils pour identifier le contenu créé par ses services
Outre ses investissements dans la C2PA, OpenAI développe également de nouvelles méthodes de provenance afin d'améliorer l'intégrité des contenus numériques. Il s'agit notamment de mettre en œuvre un filigrane infalsifiable - marquant le contenu numérique tel que l'audio avec un signal invisible qui vise à être difficile à supprimer - ainsi que des classificateurs de détection - des outils qui utilisent l'intelligence artificielle pour évaluer la probabilité qu'un contenu provienne de modèles génératifs. Ces outils visent à mieux résister aux tentatives de suppression des signaux relatifs à l'origine du contenu.
À partir d'aujourd'hui, OpenAI ouvre les demandes d'accès à son classificateur de détection d'images à son premier groupe de testeurs - notamment des laboratoires de recherche et des organisations à but non lucratif de journalisme axées sur la recherche - pour obtenir des commentaires dans le cadre de son programme d'accès pour les chercheurs. Cet outil prédit la probabilité qu'une image ait été générée par DALL-E 3 d'OpenAI. L'objectif est de permettre une recherche indépendante qui évalue l'efficacité du classificateur, analyse son application dans le monde réel, met en évidence les considérations pertinentes pour une telle utilisation et explore les caractéristiques du contenu généré par l'IA.
Comprendre quand et où un classificateur peut être moins performant est essentiel pour ceux qui prennent des décisions sur la base de ses résultats. Les tests internes effectués sur une première version du classificateur d'OpenAI ont montré une grande précision dans la distinction entre les images non générées par l'IA et celles créées par les produits DALL-E 3. Le classificateur identifie correctement les images générées par DALL-E 3 et ne se déclenche pas pour les images non générées par l'IA. Il a identifié correctement environ 98 %...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.