Alors que le grand public associe encore l’intelligence artificielle (IA) générative à une innovation futuriste ou à une menace hypothétique pour les artistes, Hollywood, lui, a déjà discrètement intégré ces outils dans ses processus créatifs. De plus en plus de studios, de producteurs et de sociétés d’effets spéciaux s’appuient sur des IA génératives pour accélérer, optimiser, voire transformer certaines étapes de la production – tout en évitant soigneusement de le rendre public.Contexte
L'IA générative est désormais utilisée dans divers aspects de la production, allant des effets visuels à la création de storyboards, en passant par la génération de dialogues et la modélisation de personnages numériques. Des outils comme Runway permettent de produire des séquences vidéo entières, tandis que des studios comme Asteria Film Co., fondé par Bryn Mooser et l'actrice Natasha Lyonne, développent des modèles propriétaires tels que Marey pour générer des images et des scènes en utilisant des données sous licence.
Cependant, cette utilisation reste souvent cachée. Les professionnels de l'industrie craignent les réactions négatives du public et les implications juridiques liées aux droits d'auteur et aux contrats syndicaux. Par exemple, l'agence CAA a lancé le projet "CAA Vault" pour capturer et contrôler les droits d'image de ses clients, anticipant les défis posés par l'IA dans la gestion des droits à l'image.
Une adoption technique devenue courante
Dans la pratique, l’IA générative est déjà utilisée à plusieurs niveaux du processus de création cinématographique et télévisuel :
- Création de storyboards et d’illustrations conceptuelles, à partir de prompts textuels simples.
- Réalisation de doublures numériques pour compléter ou corriger des scènes.
- Génération de voix, notamment pour les voix-off temporaires ou les ajustements de dialogues.
- Effets visuels permettant de créer ou modifier des décors, des visages ou des mouvements sans avoir recours à une postproduction longue et coûteuse.
Ces usages permettent de gagner un temps considérable et de réduire les budgets sur certaines productions. Toutefois, dans de nombreux cas, les spectateurs – et parfois même les équipes – ne sont pas informés de l’intervention de l’IA.
Une discrétion motivée par des enjeux juridiques et syndicaux
Le silence qui entoure l’utilisation de ces outils n’est pas anodin. D’abord, il existe des zones grises juridiques : certaines IA sont entraînées sur des bases de données contenant des images, des voix ou des extraits d’œuvres protégées par le droit d’auteur, sans que les ayants droit en soient informés. En utilisant ces modèles, les studios s’exposent à des poursuites – ou à des critiques en cas de révélation publique.
Ensuite, les organisations syndicales, comme celles des scénaristes ou des acteurs, ont commencé à inclure dans leurs accords des clauses spécifiques encadrant l’usage de l’IA : interdiction de remplacer un acteur par une version synthétique sans son accord, interdiction de produire un scénario uniquement via l’IA, obligation d’informer les collaborateurs humains. Mais dans la réalité, le flou reste total dans l’application de ces règles.
Des exemples concrets… mais rarement avoués
Certaines productions récentes ont recours à l’IA pour corriger des performances d’acteurs (par exemple la prononciation d’une langue étrangère), créer des environnements numériques en quelques clics, ou encore simuler des images de surveillance pour des documentaires. Dans la majorité des cas, aucune mention n’apparaît au générique.
Les outils employés sont variés : IA d’animation, simulateurs de voix, moteurs de génération d’image, ou encore systèmes permettant de vieillir ou rajeunir un acteur numériquement sans effets spéciaux classiques. La frontière entre amélioration et manipulation devient ainsi de plus en plus floue.
L'IA générative était encore une idée marginale en 2018, peu discutée en dehors des cercles universitaires et technologiques, lorsque Cristóbal Valenzuela a cofondé Runway. Ce programmeur et artiste autodidacte de 28 ans venait d'être diplômé d'un programme d'art et de technologie expérimentale à l'université de New York. Pour sa thèse, il a créé un ensemble d'outils permettant aux artistes d'utiliser l'IA pour générer des images, du texte et des vidéos.
En écrivant une phrase dans une application, il pouvait produire un film rudimentaire de quelques secondes. Les résultats n'étaient pas bons et n'avaient pas d'application commerciale évidente, mais le concept a trouvé un écho auprès des artistes et des concepteurs qu'il connaissait. Il n'a pas fallu longtemps pour que la société commence à s'implanter à Hollywood, non pas auprès des directeurs de studio, mais auprès des personnes travaillant en bas de l'échelle. Les artistes spécialisés dans les effets visuels ont été parmi les premiers à expérimenter ses outils. Le rendu d'images à l'aide des techniques VFX traditionnelles est notoirement lent, de sorte que l'attrait des raccourcis rapides et génératifs a été immédiat.
À la mi-2023, le modèle de Runway s'était considérablement amélioré, au moment même où l'IA générative explosait dans l'esprit du public. Runway pouvait notamment simuler des explosions réalistes et générer des décors fantastiques en quelques minutes. Cet automne, Valenzuela s'est rendu à Los Angeles pour rencontrer Michael Burns, le vice-président de Lionsgate, la société à l'origine de The Hunger Games, The Twilight Saga et John Wick.
Burns avait déjà rencontré de grandes entreprises technologiques qui essayaient de présenter leurs produits à Hollywood, mais elles ne comprenaient rien à...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.