IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les acteurs qui ont vendu leur image à des sociétés d'IA regrettent leur décision
Ils ont découvert que leurs « doubles » étaient utilisés dans des contenus trompeurs, parfois dégradants, voire politisés

Le , par Stéphane le calme

5PARTAGES

6  0 
À l’ère de la vidéo synthétique et de l’intelligence artificielle générative, plusieurs acteurs ont franchi un cap symbolique : celui de céder les droits de leur image à des entreprises d’IA en quête de visages photoréalistes. Séduits par des promesses de revenus passifs et de nouvelles opportunités médiatiques, ils sont de plus en plus nombreux à découvrir avec stupeur que leur « double numérique » est utilisé dans des contenus trompeurs, parfois dégradants, voire politisés. Cette réalité soulève une question épineuse : à quel prix une célébrité peut-elle prêter son visage à la machine ?

La tentation du double numérique : contrats flous et promesses creuses

Les sociétés d’IA vidéo, spécialisées dans la création d’avatars réalistes pour les publicités, les tutoriels ou même les journaux télévisés automatisés, proposent souvent aux acteurs un contrat standard : scannez votre visage, prêtez votre voix, et laissez l’algorithme faire le reste. En retour ? Un paiement unique ou un partage de revenus pour chaque usage du double numérique. Mais derrière cette simplicité apparente se cachent des zones d’ombre juridiques : peu de transparence sur les contenus générés, absence de limites territoriales, et clauses floues sur les modifications futures.

Certains acteurs rapportent avoir signé ces contrats à un moment où leur carrière stagnait. Ils voient désormais leur image ressurgir dans des vidéos ridicules ou inquiétantes : discours politiques manipulés, publicités pour des produits douteux, ou encore témoignages faux dans des campagnes d'information. Ils se retrouvent piégés dans un cycle d’exploitation invisible, souvent sans recours légal immédiat.

Des usages détournés, humiliants ou dangereux

Dans une tournure digne de Black Mirror, certains acteurs à court d'argent qui n'ont pas pleinement compris les conséquences regrettent d'avoir vendu leur image pour qu'elle soit utilisée dans des vidéos d'IA qu'ils considèrent comme embarrassantes, préjudiciables ou nuisibles, a rapporté l'AFP.

Parmi eux, Adam Coy, un acteur new-yorkais de 29 ans, a concédé les droits de son visage et de sa voix à une société appelée MCM pour un an, moyennant 1 000 dollars, sans se demander s'il ne franchissait pas une limite en faisant cela. La mère de sa partenaire a ensuite trouvé des vidéos dans lesquelles il apparaissait comme un prophète de malheur prédisant des catastrophes, a-t-il déclaré à l'AFP.

La ressemblance de l'acteur sud-coréen Simon Lee avec l'IA a également été utilisée pour effrayer des internautes naïfs, mais d'une manière potentiellement plus dangereuse. Il a déclaré à l'AFP qu'il avait été « stupéfait » de constater que son avatar d'IA faisait la promotion de « cures de santé douteuses sur TikTok et Instagram », se sentant honteux de voir son visage associé à des escroqueries évidentes.

Certains sont allés jusqu’à accorder « une exploitation mondiale, illimitée et irrévocable, sans aucun droit de rétractation »

À mesure que la technologie des avatars d'IA s'améliore, la tentation d'accorder des licences pour les ressemblances va probablement s'accroître. L'une des entreprises les plus prospères qui recrute des avatars d'IA, Synthesia, basée au Royaume-Uni, a doublé sa valorisation pour atteindre 2,1 milliards de dollars en janvier, a rapporté CNBC. Il y a quelques jours, Synthesia a conclu un accord de 2 milliards de dollars avec Shutterstock, qui permettra à ses avatars IA de ressembler davantage à des humains, selon The Guardian.

Afin de s'assurer que les acteurs sont incités à concéder des licences pour leur image, Synthesia a également lancé récemment un fonds d'investissement. Selon la société, les acteurs derrière les avatars d'IA les plus populaires ou présentés dans les campagnes de marketing de Synthesia se verront attribuer des options dans « un pool d'actions de notre société » d'une valeur de 1 million de dollars.

« Ces acteurs participeront au programme pendant une période maximale de quatre ans, au cours de laquelle leurs actions seront acquises mensuellement », a déclaré Synthesia.

Pour les acteurs, la vente de leur double numérique IA semble rapide et sans douleur, et peut-être de plus en plus lucrative. Il leur suffit de se présenter, de faire un tas d'expressions faciales différentes devant un écran vert, puis de toucher leur chèque. Mais Alyssa Malchiodi, une avocate qui a défendu les intérêts des acteurs, a déclaré à l'AFP que « les clients avec lesquels j'ai travaillé ne comprenaient pas pleinement ce à quoi ils s'engageaient à ce moment-là », signant aveuglément des contrats avec des « clauses considérées comme abusives », allant parfois jusqu'à accorder « une exploitation mondiale, illimitée et irrévocable, sans aucun droit de rétractation ».

« L'un des principaux signaux d'alarme est l'utilisation d'un langage large, perpétuel et irrévocable qui donne à l'entreprise l'entière propriété ou les droits illimités d'utiliser la voix, l'image et la ressemblance d'un créateur sur n'importe quel support », a déclaré M. Malchiodi.

Même une entreprise qui s'engage publiquement à développer des avatars d'IA dans le respect de l'éthique et à empêcher leur utilisation dans des contenus préjudiciables comme Synthesia ne peut pas garantir que sa modération des contenus détectera tout. Un acteur britannique, Connor Yeates, a déclaré à l'AFP que sa vidéo avait été « utilisée pour promouvoir Ibrahim Traore, le président du Burkina Faso qui a pris le pouvoir par un coup d'État en 2022 », en violation des conditions de Synthesia.

« Il y a trois ans, quelques vidéos ont échappé à notre modération de contenu, en partie parce qu'il y avait une lacune dans notre application pour les contenus factuels exacts mais polarisants ou les vidéos avec des revendications exagérées ou de la propagande, par exemple », a déclaré Alexandru Voica, responsable des affaires corporatives de Synthesia.


L’illusion du contrôle dans l’économie de l’IA

Ces cas illustrent l’un des paradoxes les plus dangereux de l’économie de l’IA : les humains cèdent leur identité numérique en croyant pouvoir la contrôler. Pourtant, une fois les données captées, elles entrent dans un écosystème opaque où les modèles d’IA s’autoalimentent, s’améliorent, et répliquent les avatars à une échelle industrielle. Même avec des clauses de « retrait », les vidéos peuvent déjà être viralisées, dupliquées et archivées ailleurs.

La responsabilité des entreprises exploitant ces technologies est rarement engagée : elles se retranchent derrière le consentement initial ou des politiques d’usage génériques. Pire, certaines justifient les dérives par des algorithmes dits « neutres », comme si l’IA se régulait seule.


Synthesia propose des options de retrait et s'engage à protéger les acteurs

Pour les acteurs qui risquent d'être remplacés par l'IA sur le marché, les avatars d'IA pourraient être un moyen de consolider leurs revenus et d'assurer leur subsistance. Depuis 2023, Synthesia a vendu ses avatars à environ la moitié des entreprises du classement Fortune 500, selon Bloomberg, et aujourd'hui ce chiffre est passé à 70 %, a déclaré Voica. Pour les marques, l'attrait de l'utilisation d'avatars d'IA permet de réduire le temps et les coûts de production des campagnes de marketing, de sorte qu'il est peu probable que la demande diminue. Voica a expliqué que « l'utilisateur type de Synthesia est un employé d'une entreprise du Fortune 500 » et qu'il est donc « très différent du profil d'un utilisateur » d'applications d'IA moins contrôlées, qui « ont tendance à générer un contenu marketing qui se transforme très rapidement en un contenu d'IA, en désinformation ou en fraude ».

« En substance, nous traitons les contenus nuisibles comme une menace sérieuse pour la sécurité, alors que pour beaucoup de ces applications d'IA, ce type de contenu est un modèle commercial », a déclaré Voica.

Mais pour les acteurs qui regrettent déjà d'avoir conclu des accords qui les empêchent de retirer des vidéos préjudiciables, l'argent ne semble peut-être plus en valoir la peine. Yeates a reçu environ 5 000 dollars pour un contrat de trois ans avec Synthesia, qu'il a signé simplement...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !