
un deepfake IA de Tom Hanks a été utilisé pour vendre une assurance dentaire
Les deepfakes IA deviennent si efficaces qu’une publicité frauduleuse de MrBeast a échappé à la technologie de modération des publicités de TikTok pour se retrouver sur la plateforme. Dans la publicité, le créateur extrêmement influent semblait offrir à 10 000 téléspectateurs un iPhone 15 Pro pour seulement 2 $. Dans la plupart des cas, cela indiquerait clairement une arnaque, mais venant de MrBeast, cela pourrait en fait être crédible.
Et cette publicité n'est que la partie émergée de l'iceberg.
TikTok, la populaire plateforme de partage de vidéos, a été critiquée pour avoir diffusé une publicité trompeuse mettant en scène une fausse image de MrBeast, un célèbre créateur de contenu sur YouTube, qui prétendait offrir des iPhone 15 Pro à 2 dollars dans le cadre d’un tirage au sort de 10 000 téléphones. La vidéo sponsorisée semblait officielle car elle comportait le logo de MrBeast et une coche bleue à côté de son nom. Mais pour les utilisateurs avertis, les traces de manipulation par l’IA étaient évidentes. La voix de MrBeast sonnait de façon déformée et ses mouvements de bouche paraissaient étranges.
MrBeast (un jeune de 25 ans nommé Jimmy Donaldson avec 189 millions d'abonnés sur YouTube) est devenu célèbre en créant des vidéos de cascades de plus en plus absurdes dans lesquelles il offre aux gens des maisons et des voitures gratuites sans aucune condition que celle d'accepter d'être dans sa vidéo). Ou, plus récemment, il demandera à des gens de « tous les pays du monde » de concourir pour un prix de 250 000 $ dans une série de mini-jeux de type olympique.
Il a également proposé de découvrir des voitures de la plus banale à la plus extravagante :
Donc, si vous n’êtes pas particulièrement doué pour repérer les arnaques, et que vous parcourez TikTok tard sans vous prendre la tête, il pourrait être dans le domaine du possible que MrBeast achète 10 000 iPhone pour les offrir via une publicité TikTok. Après tout, il a déjà offert des iPhones gratuits à des enfants qui faisaient du porte-à-porte pour Halloween (et l'un d'eux a même reçu 10 000 dollars) :
C'est sur X, l'ancien Twitter, que MrBeast a révélé la supercherie :
Beaucoup de gens reçoivent cette publicité frauduleuse de moi… les plateformes de médias sociaux sont-elles prêtes à gérer la montée des deepfakes de l’IA ? Ceci est un sérieux problème
Cela pourrait expliquer comment la publicité deepfake a été approuvée sur TikTok. TikTok utilise un mélange de modération humaine et, assez ironiquement, de technologie assistée par l'IA pour examiner les publicités avant leur publication.
TikTok a déclaré qu'il avait supprimé l'annonce quelques heures après sa publication, car elle violait les politiques publicitaires de TikTok. TikTok n’interdit pas totalement aux annonceurs d’utiliser des images de synthèses ou des deepfake, mais la plateforme exige que les annonceurs divulguent très clairement s’ils utilisent ce type de technologie.
TikTok n’est pas le seul à utiliser l’IA pour modérer les publicités. Meta affirme qu’elle s’appuie « principalement sur une technologie automatisée », mais comme TikTok, elle utilise des évaluateurs humains pour entraîner son IA et examine parfois manuellement les publicités.

Une situation qui soulève des inquiétudes
Les deepfakes trompeurs ne sont pas nouveaux, mais à mesure que l’IA devient particulièrement à la mode parmi les investisseurs et les consommateurs, la technologie devient plus facile que jamais d’accès. Alors que des célébrités célèbres sur Internet comme MrBeast séduisent les jeunes générations, les consommateurs plus âgés se laissent également tromper. Rien que cette semaine, l’acteur Tom Hanks et la présentatrice de CBS Gayle King ont tous deux averti leurs abonnés qu’ils étaient en train d’être truqués dans des publicités frauduleuses.
Dimanche, l'acteur a publié un avertissement sur Instagram concernant une version non autorisée de lui-même générée par l'IA et utilisée pour vendre une assurance dentaire. L'avertissement de Hanks s'est répandu dans les médias, notamment dans le New York Times. Le lendemain, Gayle King, présentatrice de CBS, a mis en garde contre un stratagème similaire utilisant son image pour vendre un produit amaigrissant. Les incidents désormais largement rapportés ont soulevé de nouvelles inquiétudes quant à l’utilisation de l’IA dans les médias numériques.
« ATTENTION !! Il y a une vidéo faisant la promotion d'un régime de soins dentaires avec une version IA de moi. Je n'ai rien à voir avec ça », a écrit Hanks sur son fil Instagram. De même, King a partagé une vidéo deepfake avec les mots « Fake Video » estampés dessus, déclarant : « Je n'ai jamais entendu parler de ce produit ni utilisé ! S'il vous plaît, ne vous laissez pas berner par ces vidéos d'IA ».
Ces situations interviennent dans le contexte d’un débat plus large sur les implications éthiques et juridiques de l’IA dans l’industrie des médias et du divertissement. La récente grève de la Writers Guild of America a présenté les préoccupations concernant l’IA comme un point de discorde important. SAG-AFTRA, le syndicat représentant les acteurs hollywoodiens, a exprimé ses inquiétudes quant au fait que l'IA pourrait être utilisée pour créer des répliques numériques d'acteurs sans compensation ni approbation appropriée. Et récemment, la fille de Robin Williams, Zelda Williams, a fait la une des journaux lorsqu'elle s'est plainte du clonage de la voix de son défunt père sans autorisation.
Les deepfakes IA sont de plus en plus convaincantes et cela devient un problème urgent à résoudre, tant il a le potentiel de saper la confiance partagée et menacer la fiabilité des technologies de communication en semant le doute sur l'identité d'une personne. Y faire face est un problème délicat. Actuellement, des entreprises comme Google et OpenAI envisagent de filigraner le contenu généré par l’IA et d’ajouter des métadonnées pour suivre la provenance. Mais historiquement, ces filigranes ont été facilement vaincus et des outils d’IA open source qui n’ajoutent pas de filigrane sont disponibles.
De même, les tentatives visant à restreindre les logiciels d’IA par le biais de réglementations pourraient retirer les outils d’IA générative des chercheurs légitimes tout en les gardant entre les mains de ceux qui pourraient les utiliser à des fins frauduleuses. Dans le même temps, les réseaux sociaux devront probablement intensifier leurs efforts de modération, en réagissant rapidement lorsqu'un contenu suspect est signalé par les utilisateurs.
La FTC a déjà émis des avertissements concernant le marketing deepfake, mais cette pratique s’est avérée difficile à r...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.