IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les logiciels de suppression du filigrane Sora 2 inondent le Web et rendent plus difficile la distinction entre contenus synthétiques et contenus authentiques,
Un enjeu majeur pour la lutte contre les infox

Le , par Mathis Lucas

2PARTAGES

2  0 
Le générateur de vidéo Sora 2 d'OpenAI attire un grand nombre d'utilisateurs depuis son lancement. Mais cette version du logiciel fait face à de nombreux défis. Sora 2 produit des vidéos contenant du matériel protégé par des droits d'auteur et il semble facile de contourner ses fonctionnalités de sécurité rudimentaires. Il intègre un système de filigrane visuel, conçu pour identifier les vidéos produites par l’IA et limiter la diffusion de contenus trompeurs. Mais peu de temps après sa sortie, plusieurs outils et scripts ont commencé à circuler sur Internet, promettant d’effacer le filigrane inséré dans les vidéos générées. Ce qui ouvre la voie à toute forme d'abus.

Lancé en février 2024, Sora est un modèle texte-vidéo développé par OpenAI. Sora 2, le dernier modèle de génération de vidéo et audio d'OpenAI, a été publié fin septembre 2025. La nouvelle mouture du logiciel est capable de générer des vidéos hyperréalistes. OpenAI a aussi publié une nouvelle application Sora, présentée comme une plateforme sociale permettant aux utilisateurs de partager, de remixer et de découvrir des vidéos générées par l'IA.

Sora 2 permet aux utilisateurs de créer ce qu'OpenAI appelle des « caméos », ou des apparitions d'invités, d'eux-mêmes et d'autres personnes dans des vidéos. Cette fonctionnalité exige des utilisateurs qu'ils fassent un enregistrement vidéo et audio unique d'eux-mêmes pour vérifier leur identité.


Sora 2 appose un filigrane visuel sur chaque vidéo qu'il génère. Il est destiné à aider les gens à faire la distinction entre le contenu réel généré par des humains et les images générées par l'IA. Cependant, il apparaît que « le petit logo en forme de nuage aux yeux de dessin animé » est facile à supprimer et il existe une demi-douzaine de sites Web qui permettent à n'importe qui de le faire en quelques minutes. Ces programmes se multiplient rapidement.

Une simple recherche du terme « sora watermark » (filigrane Sora) sur n'importe quel réseau social renvoie vers des sites où les utilisateurs peuvent télécharger une vidéo Sora 2 et supprimer le filigrane. 404 Media a testé trois de ces logiciels, qui ont tous supprimé le filigrane de la vidéo en quelques secondes. Ce marquage devait garantir une forme de traçabilité et de transparence dans l’usage de la technologie, mais son efficacité est remise en cause.

Les experts ont toujours été sceptiques quant à l'efficacité des filigranes

Il existe une longue tradition de marquage de documents et d'autres objets pour prouver leur authenticité, indiquer la propriété et lutter contre la contrefaçon. Selon certains experts, le filigrane idéal est celui qui est imperceptible et qui résiste à des manipulations simples telles que le recadrage, le redimensionnement, l'ajustement des couleurs et la conversion des formats numériques. Toutefois, dans le cas de l'IA, ils ne sont pas enthousiastes sur le sujet.

Un grand nombre de spécialistes ne considèrent pas les filigranes comme une solution efficace pouvant aider à lutter contre la fraude et la désinformation, ainsi que d'autres formes d'abus des logiciels d'IA. Selon eux, il y aura toujours un moyen de corrompre les filigranes, peu importe leur robustesse.

« Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. D'après lui, filigraner les contenus générés par l'IA pourrait s'avérer beaucoup plus difficile qu'on le croit.

« Un filigrane (étiquette visuelle) ne suffit pas à empêcher les utilisateurs malveillants persistants de tenter de tromper les gens avec du contenu généré par l'IA à partir de Sora », a déclaré Rachel Tobac, PDG de SocialProof Security. Selon les experts, OpenAI utiliserait des stratégies telles que les filigranes, les identifiants de contenu et les garde-fous sémantiques pour gérer les utilisations malveillantes de ses outils. Mais cela n'a pas d'importance. Les experts affirment que ce n'est qu'une question de temps avant que quelqu'un d'autre ne lance un modèle sans ces mesures de protection.

Le projet open source C2PA est également confronté à des défis

Certains fournisseurs de logiciels d'IA s'appuient sur les métadonnées de la « Coalition for Content Provenance and Authenticity » (C2PA) pour identifier les images générées par l'IA. Cependant, cette méthode peut être également contournée. La C2PA est une initiative qui se concentre sur l'authentification des contenus par le biais d'un protocole appelé Content Credentials, bien que le groupe affirme que sa technologie peut être couplée au filigrane.

Il s'agit d'un protocole open source qui s'appuie sur la cryptographie pour encoder des détails sur l'origine d'un élément de contenu. Cela signifie, par exemple, qu'une image est marquée par des informations provenant de l'appareil dont elle est issue, par tout outil d'édition (comme Photoshop) et, enfin, par la plateforme de médias sociaux sur laquelle elle est téléversée. Au fil du temps, ces informations créent une sorte d'historique, qui est enregistré.

Rachel Tobac a déclaré avoir vu des outils qui démantèlent les métadonnées générées par l'IA en modifiant la teinte et la luminosité du contenu : « malheureusement, nous constatons que ces outils de suppression des filigranes et des métadonnées contournent facilement cette norme. « Cette norme restera efficace pour les générateurs d'IA moins persistants, mais elle n'empêchera pas les acteurs malveillants déterminés de tromper les gens ».

Quelles perspectives pour les fournisseurs de logiciels d'IA ?

Malgré leur échec apparent, les experts affirment que la facilité avec laquelle les gens peuvent supprimer les filigranes intégrés aux contenus générés par l'IA n'est pas une raison pour cesser d'utiliser les filigranes. Rachel Tobac note : « l'utilisation d'un filigrane est le minimum requis pour une organisation qui tente de minimiser les dommages causés par ses outils vidéo et audio basés sur l'IA ». Toutefois, les entreprises doivent aller plus loin.

Le PDG de SocialProof Security ajoute : « nous aurons besoin d'un partenariat élargi entre les entreprises d'IA et les réseaux sociaux afin de mettre en place un système de détection des escroqueries et des contenus préjudiciables, ainsi qu'un système d'étiquetage de l'IA, non seulement du côté de la génération par l'IA, mais aussi du côté du téléchargement sur les plateformes de réseaux sociaux. Les réseaux sociaux devront également constituer de grandes équipes pour gérer l'afflux probable de contenus vidéo et audio générés par l'IA afin de détecter et de limiter la portée des contenus frauduleux et préjudiciables ».

Sora 2 crée des vidéos intégrant du matériel protégé par droit d'auteur

Peu après la sortie de Sora 2, un grand nombre de vidéos contenant des contenus protégés par des droits d'auteur, tels que Pokémon et Mario, ont été générées sur Internet. Cela a révolté de nombreux créateurs dont le matériel a été utilisé par Sora 2. Avant l'annonce de Sora 2, le Wall Street Journal avait rapporté qu'OpenAI prévoyait une option de désactivation permettant aux détenteurs de droits d'auteur d'exclure leurs contenus de l'utilisation.

OpenAI aurait commencé à informer les agences artistiques et les studios de cinéma de la procédure de désinscription. En vertu de la nouvelle politique, les studios de cinéma et autres détenteurs de droits d'auteur doivent se désinscrire de manière proactive pour empêcher Sora 2 d'utiliser leurs contenus protégés. Cependant, les personnes publiques, telles que les célébrités, ne seront pas représentées dans les vidéos sans leur consentement.

OpenAI a été critiqué par les professionnels de la création de Hollywood, qui ont exigé que les entreprises d'IA obtiennent leur consentement et leur versent une compensation lorsqu'elles utilisent leurs œuvres pour former des modèles ou générer des résultats basés sur leur contenu créatif. Au printemps 2025, OpenAI et Google ont conjointement fait pression sur l'administration Trump pour que l'utilisation de matériel protégé par le droit d'auteur pour former des modèles d'IA soit classée comme « usage loyal ». Cependant, cette initiative s'est heurtée à une forte opposition de la part des professionnels de la création hollywoodiens.

Le contenu AI Slop sature le Web ouvert et accélère son effondrement

Les chatbots d’IA changent profondément la manière dont les internautes accèdent à l’information. Autrefois, les moteurs de recherche redirigeaient les utilisateurs vers les sites qui produisent le contenu. Aujourd’hui, les chatbots d'IA générative répondent...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !