IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

TikTok diffuse une publicité deepfake IA de MrBeast vendant des iPhone 15 Pro pour 2 $
Un deepfake IA de Tom Hanks a été utilisé pour vendre une assurance dentaire

Le , par Stéphane le calme

1PARTAGES

8  0 
Les deepfakes IA deviennent si efficaces qu’une publicité frauduleuse de MrBeast a échappé à la technologie de modération des publicités de TikTok pour se retrouver sur la plateforme. Dans la publicité, le créateur extrêmement influent semblait offrir à 10 000 téléspectateurs un iPhone 15 Pro pour seulement 2 $. Dans la plupart des cas, cela indiquerait clairement une arnaque, mais venant de MrBeast, cela pourrait en fait être crédible.

Et cette publicité n'est que la partie émergée de l'iceberg.


TikTok, la populaire plateforme de partage de vidéos, a été critiquée pour avoir diffusé une publicité trompeuse mettant en scène une fausse image de MrBeast, un célèbre créateur de contenu sur YouTube, qui prétendait offrir des iPhone 15 Pro à 2 dollars dans le cadre d’un tirage au sort de 10 000 téléphones. La vidéo sponsorisée semblait officielle car elle comportait le logo de MrBeast et une coche bleue à côté de son nom. Mais pour les utilisateurs avertis, les traces de manipulation par l’IA étaient évidentes. La voix de MrBeast sonnait de façon déformée et ses mouvements de bouche paraissaient étranges.

MrBeast (un jeune de 25 ans nommé Jimmy Donaldson avec 189 millions d'abonnés sur YouTube) est devenu célèbre en créant des vidéos de cascades de plus en plus absurdes dans lesquelles il offre aux gens des maisons et des voitures gratuites sans aucune condition que celle d'accepter d'être dans sa vidéo). Ou, plus récemment, il demandera à des gens de « tous les pays du monde » de concourir pour un prix de 250 000 $ dans une série de mini-jeux de type olympique.


Il a également proposé de découvrir des voitures de la plus banale à la plus extravagante :



Donc, si vous n’êtes pas particulièrement doué pour repérer les arnaques, et que vous parcourez TikTok tard sans vous prendre la tête, il pourrait être dans le domaine du possible que MrBeast achète 10 000 iPhone pour les offrir via une publicité TikTok. Après tout, il a déjà offert des iPhones gratuits à des enfants qui faisaient du porte-à-porte pour Halloween (et l'un d'eux a même reçu 10 000 dollars) :


C'est sur X, l'ancien Twitter, que MrBeast a révélé la supercherie :

Beaucoup de gens reçoivent cette publicité frauduleuse de moi… les plateformes de médias sociaux sont-elles prêtes à gérer la montée des deepfakes de l’IA ? Ceci est un sérieux problème
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Lots of people are getting this deepfake scam ad of me… are social media platforms ready to handle the rise of AI deepfakes? This is a serious problem <a href="https://t.co/llkhxswQSw">pic.twitter.com/llkhxswQSw</a></p>&mdash; MrBeast (@MrBeast) <a href="https://twitter.com/MrBeast/status/1709046466629554577?ref_src=twsrc%5Etfw">October 3, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Cela pourrait expliquer comment la publicité deepfake a été approuvée sur TikTok. TikTok utilise un mélange de modération humaine et, assez ironiquement, de technologie assistée par l'IA pour examiner les publicités avant leur publication.

TikTok a déclaré qu'il avait supprimé l'annonce quelques heures après sa publication, car elle violait les politiques publicitaires de TikTok. TikTok n’interdit pas totalement aux annonceurs d’utiliser des images de synthèses ou des deepfake, mais la plateforme exige que les annonceurs divulguent très clairement s’ils utilisent ce type de technologie.

TikTok n’est pas le seul à utiliser l’IA pour modérer les publicités. Meta affirme qu’elle s’appuie « principalement sur une technologie automatisée », mais comme TikTok, elle utilise des évaluateurs humains pour entraîner son IA et examine parfois manuellement les publicités.

Citation Envoyé par Meta
Notre système d’examen des publicités repose principalement sur une technologie automatisée qui vérifie que les millions de publicités diffusées sur nos applications respectent bien les Standards publicitaires. Toutefois, nous avons aussi recours à des examinateur·ices humain·es afin d’améliorer et d’enrichir nos systèmes automatiques et, dans certains cas, de vérifier manuellement certaines publicités.

Le système d’examen des publicités vérifie qu’elles respectent nos Standards publicitaires. La conformité d’une publicité à l’ensemble de nos politiques peut ne pas être vérifiée avant de diffuser des impressions, même si toutes les publicités peuvent être soumises à tout moment à un nouvel examen. Nous continuons d’améliorer notre système de mise en application existant en testant et en implémentant de nouvelles approches afin de garantir un processus d’examen des publicités juste et efficace. Par exemple, nous pouvons examiner la conformité historique d’un annonceur à nos Standards publicitaires au moment de déterminer si une publicité donnée nécessite un examen supplémentaire par rapport à une politique spécifique.

Ce processus d’examen peut inclure les composants propres à une publicité, comme les images, les vidéos, le texte et les informations de ciblage, ainsi que la destination de la publicité, entre autres. La destination d’une publicité correspond à l’endroit vers lesquels les utilisateur·ices sont redirigé·es lorsqu’ils ou elles cliquent dessus, comme une page web.

En fonction des résultats de l’examen, une publicité sera soit rejetée, soit autorisée à être diffusée.

Une situation qui soulève des inquiétudes

Les deepfakes trompeurs ne sont pas nouveaux, mais à mesure que l’IA devient particulièrement à la mode parmi les investisseurs et les consommateurs, la technologie devient plus facile que jamais d’accès. Alors que des célébrités célèbres sur Internet comme MrBeast séduisent les jeunes générations, les consommateurs plus âgés se laissent également tromper. Rien que cette semaine, l’acteur Tom Hanks et la présentatrice de CBS Gayle King ont tous deux averti leurs abonnés qu’ils étaient en train d’être truqués dans des publicités frauduleuses.

Dimanche, l'acteur a publié un avertissement sur Instagram concernant une version non autorisée de lui-même générée par l'IA et utilisée pour vendre une assurance dentaire. L'avertissement de Hanks s'est répandu dans les médias, notamment dans le New York Times. Le lendemain, Gayle King, présentatrice de CBS, a mis en garde contre un stratagème similaire utilisant son image pour vendre un produit amaigrissant. Les incidents désormais largement rapportés ont soulevé de nouvelles inquiétudes quant à l’utilisation de l’IA dans les médias numériques.

« ATTENTION !! Il y a une vidéo faisant la promotion d'un régime de soins dentaires avec une version IA de moi. Je n'ai rien à voir avec ça », a écrit Hanks sur son fil Instagram. De même, King a partagé une vidéo deepfake avec les mots « Fake Video » estampés dessus, déclarant : « Je n'ai jamais entendu parler de ce produit ni utilisé ! S'il vous plaît, ne vous laissez pas berner par ces vidéos d'IA ».


Ces situations interviennent dans le contexte d’un débat plus large sur les implications éthiques et juridiques de l’IA dans l’industrie des médias et du divertissement. La récente grève de la Writers Guild of America a présenté les préoccupations concernant l’IA comme un point de discorde important. SAG-AFTRA, le syndicat représentant les acteurs hollywoodiens, a exprimé ses inquiétudes quant au fait que l'IA pourrait être utilisée pour créer des répliques numériques d'acteurs sans compensation ni approbation appropriée. Et récemment, la fille de Robin Williams, Zelda Williams, a fait la une des journaux lorsqu'elle s'est plainte du clonage de la voix de son défunt père sans autorisation.

Les deepfakes IA sont de plus en plus convaincantes et cela devient un problème urgent à résoudre, tant il a le potentiel de saper la confiance partagée et menacer la fiabilité des technologies de communication en semant le doute sur l'identité d'une personne. Y faire face est un problème délicat. Actuellement, des entreprises comme Google et OpenAI envisagent de filigraner le contenu généré par l’IA et d’ajouter des métadonnées pour suivre la provenance. Mais historiquement, ces filigranes ont été facilement vaincus et des outils d’IA open source qui n’ajoutent pas de filigrane sont disponibles.

De même, les tentatives visant à restreindre les logiciels d’IA par le biais de réglementations pourraient retirer les outils d’IA générative des chercheurs légitimes tout en les gardant entre les mains de ceux qui pourraient les utiliser à des fins frauduleuses. Dans le même temps, les réseaux sociaux devront probablement intensifier leurs efforts de modération, en réagissant rapidement lorsqu'un contenu suspect est signalé par les utilisateurs.

La FTC a déjà émis des avertissements concernant le marketing deepfake, mais cette pratique s’est avérée difficile à réglementer à grande échelle. Et à l’approche d’élections mondiales, les conséquences de cette publicité trompeuse pourraient devenir encore plus désastreuses.

Les gouvernements se précipitent pour réglementer les outils d’IA

Les progrès rapides de l'intelligence artificielle (IA), tels que ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour adopter des lois régissant l'utilisation de cette technologie.

Voici quelques-unes des dernières mesures prises par les pays et les unions de pays pour réglementer les outils d’IA :
  • Australie (régulation en cours d'examen) : l'Australie veut obliger les moteurs de recherche à rédiger de nouveaux codes pour empêcher le partage de matériels d'abus sexuels sur des enfants créés par l'IA et la production de versions deepfakes de ces mêmes matériels, a annoncé le régulateur Internet du pays le 8 septembre.
  • Grande-Bretagne (régulation en cours d'examen): l'Autorité britannique de la concurrence et des marchés (CMA) a énoncé le 18 septembre sept principes destinés à responsabiliser les développeurs et à mettre un terme aux comportements anticoncurrentiels des Big Tech tels que le regroupement. Les principes proposés, qui interviennent six semaines avant que la Grande-Bretagne n'accueille un sommet mondial sur la sécurité de l'IA, soutiendront son approche de l'IA lorsqu'elle assumera de nouveaux pouvoirs dans les mois à venir pour superviser les marchés numériques.
  • Chine (mise en place de réglementations temporaires) : la Chine a publié une série de mesures temporaires à compter du 15 août, obligeant les fournisseurs de services à soumettre des évaluations de sécurité et à recevoir une autorisation avant de commercialiser des produits d'IA sur le marché de masse. Suite aux approbations du gouvernement, quatre entreprises technologiques chinoises, dont Baidu et SenseTime Group, ont lancé leurs chatbots IA au public le 31 août.
  • Union Européenne (régulation en cours d'examen) : le législateur européen Brando Benifei, qui dirige les négociations sur la loi européenne sur l'IA, a exhorté le 21 septembre les pays membres à faire des compromis dans des domaines clés afin de parvenir à un accord d'ici la fin de l'année. Les législateurs européens ont accepté en juin des modifications dans un projet de loi et discutent actuellement des détails avec les pays de l'UE avant que le projet de règles puisse devenir une législation. La présidente de la Commission européenne, Ursula von der Leyen, a appelé le 13 septembre à la création d'un panel mondial pour évaluer les risques et les avantages de l'IA, à l'instar du panel mondial du GIEC qui informe les décideurs politiques sur le climat.
  • France (enquête sur d'éventuelles violations) : l'organisme français de surveillance de la vie privée, la CNIL, a déclaré en avril qu'elle enquêtait sur des plaintes concernant ChatGPT après que le chatbot ait été temporairement interdit en Italie.

Sources : MrBeast, Tom Hanks, Gayle King, FTC

Et vous ?

Que pensez-vous de l’utilisation de deepfake IA dans la publicité en ligne ? Est-ce une forme de tromperie ou de créativité ?
Quels sont les risques potentiels de cette pratique pour la société, la démocratie et la sécurité ? Comment les éviter ou les atténuer ?
Quelles sont les mesures que les plateformes de médias sociaux, les autorités réglementaires et les personnalités publiques devraient prendre pour prévenir et détecter les deepfake IA ?
Avez-vous déjà été exposé à une deepfake IA ? Comment avez-vous réagi ? Quels sont les signes qui vous ont permis de la reconnaître ?
Pensez-vous que les deepfake IA puissent avoir des applications positives ou bénéfiques ? Si oui, lesquelles ? Si non, pourquoi pas ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 04/10/2023 à 15:43
En 3 points :

  1. Je suis très heureux de ne pas avoir connu MrBeast avant ceci
  2. La meilleure façon de se protéger est de ne pas avoir TikTok
  3. A fortiori, si vous suivez les conseils d'influenceurs, est-ce que vous ne renoncez pas à la légitimité de vous défendre d'être victime d'une arnaque ?
3  0 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 04/10/2023 à 16:50
Citation Envoyé par Ryu2000 Voir le message

Autre scénarios :
- Les médias et le gouvernement pourraient nous faire croire qu'il y a très peu de gilets jaunes lors d'une manifestation
- Les médias et le gouvernement pourraient créé de fausses agressions (ou protéger des policiers en les faisant passer pour des victimes)

On pourrait "ressusciter" des acteurs morts. Ça semble sympa comme idée, mais en fait non.
On a pas eu besoin d'attendre l'IA pour ça :
-> Les décomptes qui n'ont aucun sens a chaque manifestation
-> les policiers qui mentent, et malgré les images de mediapart et tous les témoignages qui collent, n'ont comme seule conséquence qu'une promotion
-> star wars qui fait revenir Carrie Fisher c'était de très mauvais gout, et 100% garanti sans IA.

Pensez-vous que les deepfake IA puissent avoir des applications positives ou bénéfiques ? Si oui, lesquelles ? Si non, pourquoi pas ?
Plus j'y pense, moins j'en trouve. Sois ça sert a rien, sois ça fait des dégâts à terme.
2  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/10/2023 à 15:49
Citation Envoyé par Stéphane le calme Voir le message
Quels sont les risques potentiels de cette pratique pour la société, la démocratie et la sécurité ? Comment les éviter ou les atténuer ?
On ne peut plus faire confiance à une vidéo ou une photo.
Tout peut être faux, on peut essayer de nous faire croire n'importe quoi.

Ça me rappelle l'excellent film Running Man (avec Arnold Schwarzenegger) !
Dans ce film il y a une vidéo modifiée (enfin c'est juste la piste audio, mais quand même).

Avec des fausses preuves il y a moyen de démarrer des guerres.
Par exemple les USA pourraient dire "regardez des avions japonais sont en train de bombarder nos bateaux, nous sommes obligé de réagir".
Aujourd'hui ce serait peut-être avec l'Iran ou le Venezuela, mais vous comprenez le truc.

Edit :
Autre scénarios :
- Les médias et le gouvernement pourraient nous faire croire qu'il y a très peu de gilets jaunes lors d'une manifestation
- Les médias et le gouvernement pourraient créé de fausses agressions (ou protéger des policiers en les faisant passer pour des victimes)

Citation Envoyé par Stéphane le calme Voir le message
Quelles sont les mesures que les plateformes de médias sociaux, les autorités réglementaires et les personnalités publiques devraient prendre pour prévenir et détecter les deepfake IA ?
Est-ce qu'il existe un outil capable de savoir si une vidéo a été modifiée ?

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que les deepfake IA puissent avoir des applications positives ou bénéfiques ? Si oui, lesquelles ? Si non, pourquoi pas ?
Non.

On pourrait "ressusciter" des acteurs morts. Ça semble sympa comme idée, mais en fait non.
0  0