Et cette publicité n'est que la partie émergée de l'iceberg.
TikTok, la populaire plateforme de partage de vidéos, a été critiquée pour avoir diffusé une publicité trompeuse mettant en scène une fausse image de MrBeast, un célèbre créateur de contenu sur YouTube, qui prétendait offrir des iPhone 15 Pro à 2 dollars dans le cadre d’un tirage au sort de 10 000 téléphones. La vidéo sponsorisée semblait officielle car elle comportait le logo de MrBeast et une coche bleue à côté de son nom. Mais pour les utilisateurs avertis, les traces de manipulation par l’IA étaient évidentes. La voix de MrBeast sonnait de façon déformée et ses mouvements de bouche paraissaient étranges.
MrBeast (un jeune de 25 ans nommé Jimmy Donaldson avec 189 millions d'abonnés sur YouTube) est devenu célèbre en créant des vidéos de cascades de plus en plus absurdes dans lesquelles il offre aux gens des maisons et des voitures gratuites sans aucune condition que celle d'accepter d'être dans sa vidéo). Ou, plus récemment, il demandera à des gens de « tous les pays du monde » de concourir pour un prix de 250 000 $ dans une série de mini-jeux de type olympique.
Il a également proposé de découvrir des voitures de la plus banale à la plus extravagante :
Donc, si vous n’êtes pas particulièrement doué pour repérer les arnaques, et que vous parcourez TikTok tard sans vous prendre la tête, il pourrait être dans le domaine du possible que MrBeast achète 10 000 iPhone pour les offrir via une publicité TikTok. Après tout, il a déjà offert des iPhones gratuits à des enfants qui faisaient du porte-à-porte pour Halloween (et l'un d'eux a même reçu 10 000 dollars) :
C'est sur X, l'ancien Twitter, que MrBeast a révélé la supercherie :
Beaucoup de gens reçoivent cette publicité frauduleuse de moi… les plateformes de médias sociaux sont-elles prêtes à gérer la montée des deepfakes de l’IA ? Ceci est un sérieux problème
Cela pourrait expliquer comment la publicité deepfake a été approuvée sur TikTok. TikTok utilise un mélange de modération humaine et, assez ironiquement, de technologie assistée par l'IA pour examiner les publicités avant leur publication.
TikTok a déclaré qu'il avait supprimé l'annonce quelques heures après sa publication, car elle violait les politiques publicitaires de TikTok. TikTok n’interdit pas totalement aux annonceurs d’utiliser des images de synthèses ou des deepfake, mais la plateforme exige que les annonceurs divulguent très clairement s’ils utilisent ce type de technologie.
TikTok n’est pas le seul à utiliser l’IA pour modérer les publicités. Meta affirme qu’elle s’appuie « principalement sur une technologie automatisée », mais comme TikTok, elle utilise des évaluateurs humains pour entraîner son IA et examine parfois manuellement les publicités.
Envoyé par Meta
Une situation qui soulève des inquiétudes
Les deepfakes trompeurs ne sont pas nouveaux, mais à mesure que l’IA devient particulièrement à la mode parmi les investisseurs et les consommateurs, la technologie devient plus facile que jamais d’accès. Alors que des célébrités célèbres sur Internet comme MrBeast séduisent les jeunes générations, les consommateurs plus âgés se laissent également tromper. Rien que cette semaine, l’acteur Tom Hanks et la présentatrice de CBS Gayle King ont tous deux averti leurs abonnés qu’ils étaient en train d’être truqués dans des publicités frauduleuses.
Dimanche, l'acteur a publié un avertissement sur Instagram concernant une version non autorisée de lui-même générée par l'IA et utilisée pour vendre une assurance dentaire. L'avertissement de Hanks s'est répandu dans les médias, notamment dans le New York Times. Le lendemain, Gayle King, présentatrice de CBS, a mis en garde contre un stratagème similaire utilisant son image pour vendre un produit amaigrissant. Les incidents désormais largement rapportés ont soulevé de nouvelles inquiétudes quant à l’utilisation de l’IA dans les médias numériques.
« ATTENTION !! Il y a une vidéo faisant la promotion d'un régime de soins dentaires avec une version IA de moi. Je n'ai rien à voir avec ça », a écrit Hanks sur son fil Instagram. De même, King a partagé une vidéo deepfake avec les mots « Fake Video » estampés dessus, déclarant : « Je n'ai jamais entendu parler de ce produit ni utilisé ! S'il vous plaît, ne vous laissez pas berner par ces vidéos d'IA ».
Ces situations interviennent dans le contexte d’un débat plus large sur les implications éthiques et juridiques de l’IA dans l’industrie des médias et du divertissement. La récente grève de la Writers Guild of America a présenté les préoccupations concernant l’IA comme un point de discorde important. SAG-AFTRA, le syndicat représentant les acteurs hollywoodiens, a exprimé ses inquiétudes quant au fait que l'IA pourrait être utilisée pour créer des répliques numériques d'acteurs sans compensation ni approbation appropriée. Et récemment, la fille de Robin Williams, Zelda Williams, a fait la une des journaux lorsqu'elle s'est plainte du clonage de la voix de son défunt père sans autorisation.
Les deepfakes IA sont de plus en plus convaincantes et cela devient un problème urgent à résoudre, tant il a le potentiel de saper la confiance partagée et menacer la fiabilité des technologies de communication en semant le doute sur l'identité d'une personne. Y faire face est un problème délicat. Actuellement, des entreprises comme Google et OpenAI envisagent de filigraner le contenu généré par l’IA et d’ajouter des métadonnées pour suivre la provenance. Mais historiquement, ces filigranes ont été facilement vaincus et des outils d’IA open source qui n’ajoutent pas de filigrane sont disponibles.
De même, les tentatives visant à restreindre les logiciels d’IA par le biais de réglementations pourraient retirer les outils d’IA générative des chercheurs légitimes tout en les gardant entre les mains de ceux qui pourraient les utiliser à des fins frauduleuses. Dans le même temps, les réseaux sociaux devront probablement intensifier leurs efforts de modération, en réagissant rapidement lorsqu'un contenu suspect est signalé par les utilisateurs.
La FTC a déjà émis des avertissements concernant le marketing deepfake, mais cette pratique s’est avérée difficile à réglementer à grande échelle. Et à l’approche d’élections mondiales, les conséquences de cette publicité trompeuse pourraient devenir encore plus désastreuses.
Les gouvernements se précipitent pour réglementer les outils d’IA
Les progrès rapides de l'intelligence artificielle (IA), tels que ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour adopter des lois régissant l'utilisation de cette technologie.
Voici quelques-unes des dernières mesures prises par les pays et les unions de pays pour réglementer les outils d’IA :
- Australie (régulation en cours d'examen) : l'Australie veut obliger les moteurs de recherche à rédiger de nouveaux codes pour empêcher le partage de matériels d'abus sexuels sur des enfants créés par l'IA et la production de versions deepfakes de ces mêmes matériels, a annoncé le régulateur Internet du pays le 8 septembre.
- Grande-Bretagne (régulation en cours d'examen): l'Autorité britannique de la concurrence et des marchés (CMA) a énoncé le 18 septembre sept principes destinés à responsabiliser les développeurs et à mettre un terme aux comportements anticoncurrentiels des Big Tech tels que le regroupement. Les principes proposés, qui interviennent six semaines avant que la Grande-Bretagne n'accueille un sommet mondial sur la sécurité de l'IA, soutiendront son approche de l'IA lorsqu'elle assumera de nouveaux pouvoirs dans les mois à venir pour superviser les marchés numériques.
- Chine (mise en place de réglementations temporaires) : la Chine a publié une série de mesures temporaires à compter du 15 août, obligeant les fournisseurs de services à soumettre des évaluations de sécurité et à recevoir une autorisation avant de commercialiser des produits d'IA sur le marché de masse. Suite aux approbations du gouvernement, quatre entreprises technologiques chinoises, dont Baidu et SenseTime Group, ont lancé leurs chatbots IA au public le 31 août.
- Union Européenne (régulation en cours d'examen) : le législateur européen Brando Benifei, qui dirige les négociations sur la loi européenne sur l'IA, a exhorté le 21 septembre les pays membres à faire des compromis dans des domaines clés afin de parvenir à un accord d'ici la fin de l'année. Les législateurs européens ont accepté en juin des modifications dans un projet de loi et discutent actuellement des détails avec les pays de l'UE avant que le projet de règles puisse devenir une législation. La présidente de la Commission européenne, Ursula von der Leyen, a appelé le 13 septembre à la création d'un panel mondial pour évaluer les risques et les avantages de l'IA, à l'instar du panel mondial du GIEC qui informe les décideurs politiques sur le climat.
- France (enquête sur d'éventuelles violations) : l'organisme français de surveillance de la vie privée, la CNIL, a déclaré en avril qu'elle enquêtait sur des plaintes concernant ChatGPT après que le chatbot ait été temporairement interdit en Italie.
Sources : MrBeast, Tom Hanks, Gayle King, FTC
Et vous ?
Que pensez-vous de l’utilisation de deepfake IA dans la publicité en ligne ? Est-ce une forme de tromperie ou de créativité ?
Quels sont les risques potentiels de cette pratique pour la société, la démocratie et la sécurité ? Comment les éviter ou les atténuer ?
Quelles sont les mesures que les plateformes de médias sociaux, les autorités réglementaires et les personnalités publiques devraient prendre pour prévenir et détecter les deepfake IA ?
Avez-vous déjà été exposé à une deepfake IA ? Comment avez-vous réagi ? Quels sont les signes qui vous ont permis de la reconnaître ?
Pensez-vous que les deepfake IA puissent avoir des applications positives ou bénéfiques ? Si oui, lesquelles ? Si non, pourquoi pas ?