
Contexte
L'IA générative est désormais utilisée dans divers aspects de la production, allant des effets visuels à la création de storyboards, en passant par la génération de dialogues et la modélisation de personnages numériques. Des outils comme Runway permettent de produire des séquences vidéo entières, tandis que des studios comme Asteria Film Co., fondé par Bryn Mooser et l'actrice Natasha Lyonne, développent des modèles propriétaires tels que Marey pour générer des images et des scènes en utilisant des données sous licence.
Cependant, cette utilisation reste souvent cachée. Les professionnels de l'industrie craignent les réactions négatives du public et les implications juridiques liées aux droits d'auteur et aux contrats syndicaux. Par exemple, l'agence CAA a lancé le projet "CAA Vault" pour capturer et contrôler les droits d'image de ses clients, anticipant les défis posés par l'IA dans la gestion des droits à l'image.
Une adoption technique devenue courante
Dans la pratique, l’IA générative est déjà utilisée à plusieurs niveaux du processus de création cinématographique et télévisuel :
- Création de storyboards et d’illustrations conceptuelles, à partir de prompts textuels simples.
- Réalisation de doublures numériques pour compléter ou corriger des scènes.
- Génération de voix, notamment pour les voix-off temporaires ou les ajustements de dialogues.
- Effets visuels permettant de créer ou modifier des décors, des visages ou des mouvements sans avoir recours à une postproduction longue et coûteuse.
Ces usages permettent de gagner un temps considérable et de réduire les budgets sur certaines productions. Toutefois, dans de nombreux cas, les spectateurs – et parfois même les équipes – ne sont pas informés de l’intervention de l’IA.
Une discrétion motivée par des enjeux juridiques et syndicaux
Le silence qui entoure l’utilisation de ces outils n’est pas anodin. D’abord, il existe des zones grises juridiques : certaines IA sont entraînées sur des bases de données contenant des images, des voix ou des extraits d’œuvres protégées par le droit d’auteur, sans que les ayants droit en soient informés. En utilisant ces modèles, les studios s’exposent à des poursuites – ou à des critiques en cas de révélation publique.
Ensuite, les organisations syndicales, comme celles des scénaristes ou des acteurs, ont commencé à inclure dans leurs accords des clauses spécifiques encadrant l’usage de l’IA : interdiction de remplacer un acteur par une version synthétique sans son accord, interdiction de produire un scénario uniquement via l’IA, obligation d’informer les collaborateurs humains. Mais dans la réalité, le flou reste total dans l’application de ces règles.
Des exemples concrets… mais rarement avoués
Certaines productions récentes ont recours à l’IA pour corriger des performances d’acteurs (par exemple la prononciation d’une langue étrangère), créer des environnements numériques en quelques clics, ou encore simuler des images de surveillance pour des documentaires. Dans la majorité des cas, aucune mention n’apparaît au générique.
Les outils employés sont variés : IA d’animation, simulateurs de voix, moteurs de génération d’image, ou encore systèmes permettant de vieillir ou rajeunir un acteur numériquement sans effets spéciaux classiques. La frontière entre amélioration et manipulation devient ainsi de plus en plus floue.
L'IA générative était encore une idée marginale en 2018, peu discutée en dehors des cercles universitaires et technologiques, lorsque Cristóbal Valenzuela a cofondé Runway. Ce programmeur et artiste autodidacte de 28 ans venait d'être diplômé d'un programme d'art et de technologie expérimentale à l'université de New York. Pour sa thèse, il a créé un ensemble d'outils permettant aux artistes d'utiliser l'IA pour générer des images, du texte et des vidéos.
En écrivant une phrase dans une application, il pouvait produire un film rudimentaire de quelques secondes. Les résultats n'étaient pas bons et n'avaient pas d'application commerciale évidente, mais le concept a trouvé un écho auprès des artistes et des concepteurs qu'il connaissait. Il n'a pas fallu longtemps pour que la société commence à s'implanter à Hollywood, non pas auprès des directeurs de studio, mais auprès des personnes travaillant en bas de l'échelle. Les artistes spécialisés dans les effets visuels ont été parmi les premiers à expérimenter ses outils. Le rendu d'images à l'aide des techniques VFX traditionnelles est notoirement lent, de sorte que l'attrait des raccourcis rapides et génératifs a été immédiat.
À la mi-2023, le modèle de Runway s'était considérablement amélioré, au moment même où l'IA générative explosait dans l'esprit du public. Runway pouvait notamment simuler des explosions réalistes et générer des décors fantastiques en quelques minutes. Cet automne, Valenzuela s'est rendu à Los Angeles pour rencontrer Michael Burns, le vice-président de Lionsgate, la société à l'origine de The Hunger Games, The Twilight Saga et John Wick.
Burns avait déjà rencontré de grandes entreprises technologiques qui essayaient de présenter leurs produits à Hollywood, mais elles ne comprenaient rien à la réalisation de films. « C'est comme une terre étrangère pour eux », a déclaré Burns. Valenzuela, quant à lui, créait des produits spécialement conçus pour les cinéastes. « Le consommateur veut voir des paysages magnifiques et des effets spéciaux », se souvient Burns.
Avec Runway, il pensait que les cinéastes pourraient « réaliser des films et des émissions de télévision que nous n'aurions jamais pu faire autrement. Nous ne pouvons pas le faire pour 100 millions de dollars, mais nous le ferions pour 50 millions de dollars grâce à l'IA ». Il a dit à Valenzuela : « Nous devrions peut-être vous acheter. » Valenzuela l'a corrigé : « Oh, non, non : "nous allons vous acheter" ». Au printemps, comme il l'avait prédit, l'évaluation de Runway a dépassé la capitalisation boursière de Lionsgate, atteignant 3 milliards de dollars.
Lionsgate a prévu de fournir une sélection de ses archives de films afin que Runway puisse former un modèle personnalisé sur le catalogue propriétaire du studio.
« C'est insensé de voir à quelle vitesse les choses évoluent », a déclaré Burns. Je parle à Cristóbal et je lui dis : « Voilà ce dont mes gars ont vraiment besoin pour la suite », et il me répond : « Oui, nous l'aurons la semaine prochaine ». Ce matin-là, Burns avait demandé à Valenzuela de créer une bande-annonce pour un film qu'ils n'avaient pas encore tourné. L'objectif était de le présenter à un festival du film, mais d'abord, ils allaient le vendre à l'aide de scènes générées par l'IA à partir du scénario. Le film ne coûterait que 10 millions de dollars, mais il ressemblerait davantage à un film de 100 millions de dollars. « Nous allons faire exploser les choses pour qu'elles aient l'air plus grandes et plus cinématographiques », a-t-il déclaré.
La collaboration avec Runway est ouverte et flexible. « Nous nous penchons sur l'art du possible », explique Burns. « Essayons des choses, voyons ce qui colle ». Il a énuméré quelques idées actuellement à l'étude. Avec une bibliothèque aussi vaste que celle de Lionsgate, ils pourraient utiliser Runway pour reconditionner et revendre ce que le studio possède déjà, en ajustant le ton, le format et la classification pour produire un montage plus doux pour un public plus jeune ou convertir un film en prise de vue réelle en dessin animé. Il a donné l'exemple de l'une des franchises d'action emblématiques de Lionsgate : « Maintenant, nous pouvons dire : "Fais-le en anime, fais-le en PG-13". Trois heures plus tard, j'aurai le film ». Il devra payer les acteurs et tous les autres participants aux droits, a-t-il ajouté - « mais je peux le faire, et maintenant je peux le revendre ».
Il a donné un autre exemple. « Nous avons un film dont nous essayons de décider s'il doit être validé ou non », a-t-il déclaré. « Il y a un plan de dix secondes : 10 000 soldats sur une colline avec un tas de chevaux dans une tempête de neige ». Le tournage dans l'Himalaya aurait pris trois jours et coûterait des millions. En utilisant Runway, le plan peut être créé pour 10 000 dollars. Il n'était pas sûr que le film soit réalisé, mais ce serait une dépense raisonnable.
Il n'existe encore qu'une poignée d'utilisations publiquement reconnues de Runway (ou de tout autre modèle d'IA générative) dans le cinéma et la télévision grand public. Dans Everything Everywhere All at Once, le film oscarisé, un artiste VFX a utilisé l'outil d'écran vert de Runway pour supprimer efficacement les éléments d'arrière-plan des images. L'entreprise a également contribué à la réalisation d'une vingtaine de plans dans la série biblique House of David d'Amazon, dont une séquence fantastique de 90 secondes qui ouvre le sixième épisode ; le producteur exécutif Jon Erwin a expliqué que cela n'aurait pas été possible dans le cadre de leur calendrier ou de leur budget. Lorsqu'il a été demandé à Valenzuela quels autres films en salles ou en streaming avaient utilisé Runway, il a hésité. « Je ne pense pas pouvoir le dire », a-t-il répondu.
Pourtant, en privé, il était en grande conversation (voire en collaboration active) avec tous les grands studios d'Hollywood.
Réactions et controverses
L'utilisation de l'IA dans des productions comme "The Brutalist" a suscité des controverses. Dans ce film, l'IA a été utilisée pour améliorer la prononciation du hongrois par les acteurs Adrien Brody et Felicity Jones, ainsi que pour générer des él...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.