IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les logiciels de suppression du filigrane Sora 2 inondent le Web et rendent plus difficile la distinction entre contenus synthétiques et contenus authentiques,
Un enjeu majeur pour la lutte contre les infox

Le , par Mathis Lucas

271PARTAGES

2  0 
Le générateur de vidéo Sora 2 d'OpenAI attire un grand nombre d'utilisateurs depuis son lancement. Mais cette version du logiciel fait face à de nombreux défis. Sora 2 produit des vidéos contenant du matériel protégé par des droits d'auteur et il semble facile de contourner ses fonctionnalités de sécurité rudimentaires. Il intègre un système de filigrane visuel, conçu pour identifier les vidéos produites par l’IA et limiter la diffusion de contenus trompeurs. Mais peu de temps après sa sortie, plusieurs outils et scripts ont commencé à circuler sur Internet, promettant d’effacer le filigrane inséré dans les vidéos générées. Ce qui ouvre la voie à toute forme d'abus.

Lancé en février 2024, Sora est un modèle texte-vidéo développé par OpenAI. Sora 2, le dernier modèle de génération de vidéo et audio d'OpenAI, a été publié fin septembre 2025. La nouvelle mouture du logiciel est capable de générer des vidéos hyperréalistes. OpenAI a aussi publié une nouvelle application Sora, présentée comme une plateforme sociale permettant aux utilisateurs de partager, de remixer et de découvrir des vidéos générées par l'IA.

Sora 2 permet aux utilisateurs de créer ce qu'OpenAI appelle des « caméos », ou des apparitions d'invités, d'eux-mêmes et d'autres personnes dans des vidéos. Cette fonctionnalité exige des utilisateurs qu'ils fassent un enregistrement vidéo et audio unique d'eux-mêmes pour vérifier leur identité.


Sora 2 appose un filigrane visuel sur chaque vidéo qu'il génère. Il est destiné à aider les gens à faire la distinction entre le contenu réel généré par des humains et les images générées par l'IA. Cependant, il apparaît que « le petit logo en forme de nuage aux yeux de dessin animé » est facile à supprimer et il existe une demi-douzaine de sites Web qui permettent à n'importe qui de le faire en quelques minutes. Ces programmes se multiplient rapidement.

Une simple recherche du terme « sora watermark » (filigrane Sora) sur n'importe quel réseau social renvoie vers des sites où les utilisateurs peuvent télécharger une vidéo Sora 2 et supprimer le filigrane. 404 Media a testé trois de ces logiciels, qui ont tous supprimé le filigrane de la vidéo en quelques secondes. Ce marquage devait garantir une forme de traçabilité et de transparence dans l’usage de la technologie, mais son efficacité est remise en cause.

Les experts ont toujours été sceptiques quant à l'efficacité des filigranes

Il existe une longue tradition de marquage de documents et d'autres objets pour prouver leur authenticité, indiquer la propriété et lutter contre la contrefaçon. Selon certains experts, le filigrane idéal est celui qui est imperceptible et qui résiste à des manipulations simples telles que le recadrage, le redimensionnement, l'ajustement des couleurs et la conversion des formats numériques. Toutefois, dans le cas de l'IA, ils ne sont pas enthousiastes sur le sujet.

Un grand nombre de spécialistes ne considèrent pas les filigranes comme une solution efficace pouvant aider à lutter contre la fraude et la désinformation, ainsi que d'autres formes d'abus des logiciels d'IA. Selon eux, il y aura toujours un moyen de corrompre les filigranes, peu importe leur robustesse.

« Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. D'après lui, filigraner les contenus générés par l'IA pourrait s'avérer beaucoup plus difficile qu'on le croit.

« Un filigrane (étiquette visuelle) ne suffit pas à empêcher les utilisateurs malveillants persistants de tenter de tromper les gens avec du contenu généré par l'IA à partir de Sora », a déclaré Rachel Tobac, PDG de SocialProof Security. Selon les experts, OpenAI utiliserait des stratégies telles que les filigranes, les identifiants de contenu et les garde-fous sémantiques pour gérer les utilisations malveillantes de ses outils. Mais cela n'a pas d'importance. Les experts affirment que ce n'est qu'une question de temps avant que quelqu'un d'autre ne lance un modèle sans ces mesures de protection.

Le projet open source C2PA est également confronté à des défis

Certains fournisseurs de logiciels d'IA s'appuient sur les métadonnées de la « Coalition for Content Provenance and Authenticity » (C2PA) pour identifier les images générées par l'IA. Cependant, cette méthode peut être également contournée. La C2PA est une initiative qui se concentre sur l'authentification des contenus par le biais d'un protocole appelé Content Credentials, bien que le groupe affirme que sa technologie peut être couplée au filigrane.

Il s'agit d'un protocole open source qui s'appuie sur la cryptographie pour encoder des détails sur l'origine d'un élément de contenu. Cela signifie, par exemple,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 25/03/2026 à 9:34
OpenAI ferme Sora sans explication, puis parle de robots : 2,1 millions de recettes totales, 15 millions de coûts par jour, et un milliard de Disney envolé
l'échec IA le plus cher de l'histoire récente

...

Sora (le modèle, l'API, les préversions) existe depuis février 2024, soit environ quinze mois. Mais l'application mobile autonome baptisée « Sora » a été lancée en septembre 2025, six mois avant la fermeture annoncée en mars 2026.
1. Les experts en communication de OpenAI ont bien fait leur job pour minimiser la catastrophe: Tous les lecteurs vont garder en tête "2,1 millions de gains pour 15 millions de pertes"... C'est déjà pas glorieux mais en réalité c'est "2,1 millions de gains pour... 6,75 milliards de pertes et je compte pas le petit milliard de Disney!!! (15 millions*30 jours*15 mois) et là, cela va refroidir les gogos qui allaient casser leur tirelire pour acheter des actions OpenAI à son entrée en bourse

2. Apparemment les "papes en doudoune" et "les petites voisines à poils" ne sont pas très porteurs

3. Les cinéastes de Hollywood se faisaient du soucis pour leur job se voyant déjà remplacé par l'IA mais quand il faut payer les vrais coûts engendrés par l'IA, force est de constater que les tournages de films à la mode de papa ont encore de beaux jours devant eux

4. La seule différence qu'il y a entre l'IA créateur de video de OpenAi et celle de Google est que Google dispose d'une montagne de dollars que la société gagne en dehors des activités IA, ce qui n'est pas le cas de OpenAI!!! Google peut donc encore perdre du fric alors que OpenAi n'en avait plus les moyens
4  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 28/11/2025 à 9:55
"Cameo" est un terme commun qu'on utilise souvent au cinéma pour désigner l'apparition éclair d'un acteur ou d'une actrice vedette non prévue au casting.
Extrait du Larousse : https://www.larousse.fr/dictionnaire...%C3%A9o/186893

Donc la boite choisi un nom commun comme raison sociale et fait un procès à quiconque ose l'utiliser.
C'est complètement absurde !

A ce compte là, je m'en vais de ce pas créer une entreprise que je vais appeler "Vidéo".
Et ensuite, j'intenterai un procès à tous ceux qui utilise le mot "vidéo" car cela créerait un risque de confusion pour le public et affaiblirait l'identité commerciale de mon entreprise.
1  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 28/11/2025 à 11:23
Orange
Apple
Lotus
Puma

Honnêtement, je pensais pouvoir en lister d'autres plus facilement mais toujours est-il que les nom communs qui sont déposés pour en faire des marques c'est un phénomène qui est de plus en plus présent depuis quelques décennies.
J'dis pas que ça me plaît, juste que ça existe.
Par contre, je sais pas si Lotus et Puma ont porté plainte contre des botanistes ou des zoo .
1  0