Une vidéo politique générée par intelligence artificielle, attribuée à des réseaux proches du Parti républicain, a récemment franchi un seuil inquiétant. En mettant en scène, de manière totalement fictive, un élu du Parti démocrate administrant un traitement hormonal à un enfant, ce deepfake illustre la mutation accélérée de la désinformation politique à l’ère de l’IA. Plus qu’un simple coup de communication, il révèle une stratégie qui instrumentalise la technologie pour fabriquer de toutes pièces des scandales émotionnels.Les républicains attaquent la gouverneure du Maine Janet Mills (D) – qui se présente au Sénat américain – avec une fausse vidéo générée par intelligence artificielle (IA) dans laquelle elle donne à un garçon « un kit d'œstrogènes ne nécessitant pas l'autorisation des parents ». Mills a été une fervente défenseuse des droits des transgenres au cours de l'année écoulée, refusant de céder à la pression du président visant à interdire aux enfants transgenres de participer aux sports scolaires.
Mais au lieu de simplement la critiquer pour son soutien réel aux personnes transgenres, les républicains ont décidé d'utiliser des vidéos deepfake.
Le deepfake comme arme politique à part entière
Cette vidéo n’est ni une parodie ni une satire explicitement revendiquée. Elle se présente comme un document quasi factuel, exploitant les codes visuels de l’information et la crédibilité apparente de l’image. L’intelligence artificielle permet ici de produire un contenu suffisamment réaliste pour court-circuiter l’esprit critique, en particulier lorsqu’il circule sur les réseaux sociaux, où la vitesse de diffusion prime sur la vérification.
La nouveauté réside moins dans l’attaque politique que dans sa forme. L’IA ne se contente plus d’amplifier un message idéologique existant. Elle crée un événement fictif, avec des visages, des gestes et une mise en scène qui donnent l’illusion du réel. La frontière entre rumeur et preuve visuelle devient floue, voire inexistante.
L’exploitation d’un sujet hautement inflammable
Le thème choisi n’est pas neutre. Les questions liées à l’identité de genre et aux soins médicaux pour les mineurs cristallisent des tensions profondes aux États-Unis. En associant un enfant, un traitement médical et un responsable politique, la vidéo cherche à provoquer une réaction émotionnelle immédiate, fondée sur la peur et l’indignation plutôt que sur le débat de fond.
Ce type de mise en scène vise un objectif précis : transformer une question complexe et encadrée médicalement en un récit simplifié, moralement choquant et politiquement mobilisateur. L’IA agit comme un catalyseur, capable de donner une forme visuelle à des fantasmes ou des accusations qui, auparavant, restaient cantonnés au discours.
La publicité en elle-même
La publicité du Comité national républicain du Sénat (NRSC) reprend le ton d'une publicité télévisée des années 90 vendant « La collection Janet Mills ». La voix off robotique déforme ses positions politiques tandis que des vidéos générées par l'IA montrent les « conséquences » de ces politiques. La technologie d'IA générative a probablement été utilisée car il ne s'agit pas des résultats réels des politiques de Mills, et aucune vidéo réelle n'était donc disponible.
Le premier tableau montre un garçon courant sur une piste avec plusieurs filles derrière lui et Mills agissant comme chronométreur. Mills « oblige les filles à rivaliser avec des hommes biologiques », explique la voix off, un raccourci qui a été fait parce que Mills a soutenu la participation des filles transgenres aux compétitions avec les autres filles.
Dans la scène suivante, un garçon en polo qui semble avoir environ 8 ou 9 ans se tient dans un magasin de vêtements pour femmes tandis que Mills lui tend une boîte contenant des seringues à l'ancienne. Mills arrive avec « un kit d'œstrogènes ne nécessitant pas l'autorisation des parents », explique la voix off.
L'hormonothérapie ne fait pas partie des soins standard pour les enfants transgenres de cet âge, et les enfants de cet âge ne peuvent pas bénéficier de beaucoup de soins médicaux sans l'autorisation de leurs parents. Mais affirmer que les démocrates veulent que de très jeunes enfants bénéficient de soins d'affirmation de genre inappropriés à leur âge a été une stratégie clé utilisée par la droite pour susciter une panique morale contre les enfants transgenres.
La voix off ajoute ensuite que Mills « cache la vérité aux parents pendant que leurs enfants mineurs prennent des hormones sur ordonnance », tandis que la vidéo montre un garçon encore plus jeune s'injectant lui-même une seringue.
La dernière scène montre Mills buvant du champagne dans un manteau de fourrure dans la salle d'attente d'un hôpital, tandis que la voix off accuse sa famille de tirer profit des soins d'affirmation du genre. La publicité ne contient aucune citation de Mills ni aucune référence à une loi qu'elle aurait signée, ce qui est pourtant caractéristique des publicités politiques offensives, utilisées pour donner plus de crédibilité aux accusations. Mais la vidéo générée par l'IA semble avoir pris cette place dans cette publicité, car ces vidéos réalistes fournissent la « preuve » que Mills transforme des enfants en transgenres à l'insu de leurs parents.
L'utilisation de fausses vidéos dans les publicités politiques n'est pas illégale aux États-Unis
La page web du NRSC consacrée à cette publicité tente d'établir certains liens avec la réalité, notamment en renvoyant vers un article sur le soutien apporté par Mills aux filles transgenres qui participent à des compétitions sportives féminines, un article sur la manière dont les adolescents plus âgés peuvent bénéficier de soins affirmant leur genre dans le Maine sans l'autorisation parentale dans certaines situations limitées, et un lien vers une autre page web du NRCS indiquant que la sœur de Mills travaille dans le secteur des soins de santé, ce qui constitue probablement leur « preuve » que Mills tire personnellement profit des soins affirmant le genre.
L'utilisation de fausses vidéos dans les publicités politiques n'est pas illégale aux États-Unis, et le président a rendu plus difficile pour les États d'en réglementer l'utilisation. Certaines plateformes, comme YouTube – où la publicité du NRSC est publiée – exigent que l'utilisation de vidéos générées par l'IA soit divulguée. Rien sur YouTube n'indique que la publicité du NRSC est le produit d'une IA générative.
« Les mensonges font partie de la politique depuis des temps immémoriaux », a déclaré Robert Weissman, coprésident de Public Citizen, dans une interview accordée au Guardian le mois dernier. « C'est différent des mensonges, et c'est différent de dire que votre adversaire a dit quelque chose qu'il n'a pas dit. »
« Lorsqu'on montre à quelqu'un une version apparemment authentique d'une personne tenant des propos, il est très difficile pour cette personne de contredire ces propos et de dire "je n'ai jamais dit cela", car on demande aux gens de ne pas croire ce qu'ils ont vu de leurs propres yeux », a ajouté Weissman.
Une stratégie de désinformation décomplexée
L’épisode révèle une évolution préoccupante des pratiques de campagne. La désinformation n’est plus un dommage collatéral ou une dérive marginale. Elle devient une stratégie assumée, intégrée à l’arsenal politique. L’utilisation du deepfake permet de nier toute responsabilité directe, en jouant sur l’ambiguïté de la source, tout en bénéficiant de l’impact maximal du message.
Cette logique rompt avec les attaques politiques traditionnelles, qui s’appuyaient encore, même de manière biaisée, sur des faits existants. Ici, la réalité est entièrement fabriquée. L’adversaire ne peut pas se défendre sur le fond, puisqu’il n’y a aucun fait réel à contester, seulement une image mensongère à déconstruire.
Une menace directe pour la confiance démocratique
À long terme, ce type de manipulation risque d’avoir un effet corrosif sur la démocratie. Si tout peut être falsifié de manière crédible, la valeur de l’image comme...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.