Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Deepfake : l'app gratuite Zao vous permet de changer le visage d'un personnage de film par le votre

Après avoir téléchargé une photo

Le 2019-09-03 10:24:44, par Stéphane le calme, Chroniqueur Actualités
Une application chinoise qui permet aux utilisateurs de changer de manière convaincante le visage d'un personnage de films ou de chaînes de télévision par leur visage est rapidement devenue l’une des applications les plus téléchargées du pays, déclenchant une série de questions relatives à la confidentialité. Lancée vendredi 30 août, l'application Zao serait devenue l’application gratuite la plus téléchargée en Chine d’après la société d’analyses App Annie.

Les utilisateurs chinois ont saisi l'opportunité de se voir jouer des scènes de films connus utilisant la technologie deepfake, ce qui a déjà suscité des inquiétudes au sujet d'un éventuel abus.

Allan Xia, utilisateur de Twitter, a publié une démonstration détaillée de ce que l'application est capable de faire avec un clip de 30 secondes de son visage remplaçant celui de Leonardo Dicaprio lors de moments célèbres de plusieurs de ses films. Selon Xia, les clips ont été générés en moins de huit secondes à partir d'une seule photo. Cependant, Bloomberg note que l'application peut également vous guider tout au long du processus de prise d'une série de photographies (où elle vous demandera d'ouvrir et de fermer la bouche, de cligner des yeux, d'arborer des expressions faciales) pour générer des résultats plus réalistes.

En somme, les utilisateurs fournissent une série de selfies que l’application utilise pour transformer de façon réaliste un personnage dans un film, une émission de télévision ou d’autres contenus.


Selon Xia, l'application ne propose qu'un nombre limité de clips dans lesquels vous pouvez insérer votre visage. Le développeur de l’application a probablement formé ses algorithmes sur chacun de ces clips pour remodeler facilement le visage de l’utilisateur sur eux, comme le spécule Xia. L'application ne peut pas mapper votre visage sur un clip vidéo de votre choix.

La technologie ressemble à ce qu'ont montré récemment des chercheurs de l’Imperial College de Londres, qui ont présenté une technologie capable de transformer une photo unique en portrait chantant. La différence ici est que Zao insère votre image dans une vidéo existante, plutôt que d’animer directement une photo de vous. Néanmoins, cela montre à quel point la technologie sous-jacente a évolué rapidement : ce qui nécessitait autrefois des centaines d’images pour créer une vidéo deepfake plutôt convaincante ne nécessite désormais plus qu’une seule image avec de meilleurs résultats.


Des conditions d'utilisation qui inquiètent

La société a été obligée de publier dimanche une déclaration dans laquelle elle annonçait des modifications après que les critiques eurent attaqué la politique de confidentialité de l'application, qui disposait de droits « gratuits, irrévocables, permanents, transférables et dont la licence peut être reconduite » sur tout contenu généré par l'utilisateur.

Les deepfakes, qui utilisent l'intelligence artificielle pour paraître authentiques, suscitent de plus en plus d'inquiétudes. Les critiques disent que la technologie peut être utilisée pour créer de fausses vidéos permettant de manipuler des élections, de diffamer quelqu'un ou de potentiellement e causer des troubles en diffusant des informations erronées à grande échelle.

« Nous comprenons les préoccupations concernant la vie privée. Nous avons reçu les commentaires et nous allons régler les problèmes que nous n’avons pas pris en compte, ce qui prendra un certain temps », a déclaré Zao. Zao appartient à Momo Inc, un service de rencontres apparenté à Tinder qui est coté au Nasdaq américain. Momo Inc a déjà été épinglée en 2014 pour une faille de sécurité. Les mots de passe et données de 30 millions d’utilisateurs d’une application de rencontres qu’il détenait avaient alors été exposés. Le spécialiste du numérique Baptiste Robert (alias Elliot Alderson) a d'ailleurs émis des doutes sur la sécurité du stockage des données en ligne : il serait assez simple d’accéder aux photos et montages laissés par des utilisateurs, sans mot de passe. Il suffirait pour ceci d’avoir le lien vers l’image en question.

Depuis, l'entreprise a changé ses termes. Elle s'est par exemple engagée à supprimer de ses serveurs tout contenu téléchargé, mais supprimé ultérieurement par les utilisateurs.


C’est une controverse similaire à celle qui a entouré FaceApp plus tôt cette année, lorsque l’application qui permettait aux utilisateurs de voir à quoi ils ressembleraient plus vieux est redevenue virale en juillet. Le développeur de l’application a été contraint de clarifier sa politique de confidentialité et d’offrir aux utilisateurs la possibilité de supprimer leurs photos de leurs serveurs s’ils le souhaitaient. Dans le cas de FaceApp, les commentateurs ont rapidement souligné que la politique de confidentialité de l’application n’était pas plus envahissante que la plupart des applications mobiles les plus populaires à travers le monde.

Les manifestants à Hong Kong s'efforcent de se couvrir le visage de peur que la police utilise la technologie de reconnaissance faciale pour identifier et arrêter des cibles. Dans certaines zones du monde, les gens sont de plus en plus conscients de l’importance de leurs données d’imagerie faciale et s’inquiètent à juste titre des entreprises qui ne prennent pas les mesures de protection adéquates pour les protéger.

Toutefois, cela n'a pas entamé la popularité de l'application qui est restée en tête des applications de téléchargement gratuit en Chine lundi soir, selon App Annie.

Source : Allan Xia, Zao (via Weibo), Radii, Elliot Anderson

Et vous ?

Que pensez-vous de cette application ? Êtes-vous tenté de l'essayer ?
Quel serait, selon vous, le pire scénario qui puisse arriver ?
Faut-il craindre les deepfake en général ?

Voir aussi :

Des chercheurs ont mis au point un algorithme pour détecter les deepfakes en divisant l'image en de petites zones pour les examiner pixel par pixel
Des utilisateurs s'inquiètent des risques potentiels sur la vie privée apportés par FaceApp, l'app qui permet d'appliquer un filtre vieillissant
GitHub supprime de sa plateforme les versions open source de DeepNude, l'application qui crée des images de femmes nues en quelques secondes
Une nouvelle application deepfake générée par l'IA créé des images de femmes nues en quelques secondes, elle est maintenant supprimée de l'Internet
  Discussion forum
16 commentaires
  • Edrixal
    Membre expérimenté
    Ce genre d'outil, malheureusement comme tous les outils, ne seront pas utilisé pour de bonne chose (délirer, j'vois pas trop ce que tu peut faire de bien avec ?!).
    On va donc ce retrouver avec de plus en plus de fausse vidéo pour faire monter la haine afin que les plus extrémistes puisse gagner des voix.

    Quant ont pense que dans certain pays il y à eux des lynchages publique (avec mort à la clé) sur de simple rumeur partager sur les réseaux sociaux, j'imagine même pas ce qu'une personne mal intentionnée peut générer comme dégât sur la vie d'une personne avec de fausse vidéo bien montée...
  • Ryu2000
    Membre extrêmement actif
    Envoyé par Stéphane le calme
    Quel serait, selon-vous, le pire scénario qui puisse arriver ?
    Remplacer le visage d'une actrice pornographique par celui de Merkel.
    Je pense que le pire scénario serait que les médias officielles, comme l'AFP, fassent passer des fausses vidéos pour des vraies, ce serait une terrible arme de propagande.
    Cet outil peut être utilisé pour créer des fausses preuves facilement. (on pourrait faire dire n'importe quoi à Ben Laden)

    Un état peut faire une attaque sous faux drapeau, en s'attaquant lui même et en mettant la faute sur un autre pays.
  • Edrixal
    Membre expérimenté
    Envoyé par Ryu2000
    Il faut se méfier des images, elles sont manipulable.
    Tu est au courant, moi aussi. La plupart des gens sur se forum également. Mais quand tu vois la vitesse avec laquelle les fakes new sont propager, du moment que sa confirme le biais de confirmation, imagine le potentiel destructeur que sa peut apporter ?! Les gens n'en aurons rien à foutre que ce soit une fausse vidéo, du moment que sa les confortes dans leur pensées...
  • micka132
    Expert confirmé
    Envoyé par Ryu2000
    Un état peut faire une attaque sous faux drapeau, en s'attaquant lui même et en mettant la faute sur un autre pays.
    Le pire c'est que ca se faisait déjà avant
  • Ryu2000
    Membre extrêmement actif
    Envoyé par Edrixal
    pourrait permettre à l'extrême droit de gagner facilement une élection
    Ouais bof ce n'est pas l'idéologie des puissants, donc il y a aura des trucs comme le Décodex du Monde pour dire que c'est faux.
    Aujourd'hui dans Google News à droite il y a une zone "Fact-Checking" avec des liens de AFP factuel.
    Non, cette photo ne montre pas une Yazidie vendue comme esclave sexuelle en Arabie Saoudite
    Non, le directeur de cabinet de Brigitte Macron ne touche pas 278.000€ par an
    Non, cette photographie ne montre pas une nuée d'oiseaux attaquant un avion
    Non, ni Messi ni Ronaldo n'ont affrété des Canadair pour éteindre les incendies en Amazonie
    Je suis pas fan du concept, c'est complètement le ministère de la vérité qui dit ce qui est vrai et ce qui est faux.

    Envoyé par Edrixal
    On pourrait aussi imaginer faire dire aux opposants politiques des énormités, histoire de les décrédibilisé. Pas aux grosses figure hein, eux ils ont le réseaux pour porter plainte ect... Mais les GJ, les petits parti politique, les associations, ect...
    Pendant un moment les médias ont essayé de faire passer les gilets jaunes pour des antisémites !!!
    Ce qu'il ne faut pas entendre comme connerie...

    ===
    Bon de toute façon les médias et les politiciens n'ont pas besoin de ça pour manipuler la masse.
    Deepfake aura peut-être des utilisations intéressantes.
  • Edrixal
    Membre expérimenté
    Envoyé par Ryu2000
    Si c'est sur Facebook ou Twitter ce n'est pas encore trop grave. Ce sera dangereux quand le ministère de la vérité présentera des fausses vidéos en disant qu'elles sont vraies.

    Un peu dans ce genre la :
    «Macron dégage» : comment France 3 bidouille ses images d'illustration

    En moins grave il y a ça :
    Mélenchon sur TF1 : le zoom qui fâche

    Là il y a des gens qui ont cru que les images avaient été modifiées, mais des experts ont dit que ça semblait normal :
    "Manif pour tous": la preuve que la préfecture de police n'a pas truqué ses images
    Sa pourrait aller bien plus loin, tu prend un type bazanner et lui fait dire des choses comme "Il faut tuer ses sales blancs !", ect...
    Puis un autre.
    Puis un autre.
    Puis...

    Et à chaque fois tu publie et distribue la vidéo. C'est du faux, mais les intéresser s'en moquerons cela confirmera leur conviction. Et ils s'en servirons pour propager leur parole.

    Et là je prend un exemple simpliste, mais rien que ça, pourrait permettre à l'extrême droit de gagner facilement une élection et plus besoin des fakes news sur les aides, les cartes de crédit ou je ne sais trop quoi donner aux migrants.

    On pourrait aussi imaginer faire dire aux opposants politiques des énormités, histoire de les décrédibilisé. Pas aux grosses figure hein, eux ils ont le réseaux pour porter plainte ect... Mais les GJ, les petits parti politique, les associations, ect...

    Peut importe que l'image soit vrais ou fausse, du moment qu'elle fait parler l'émotion et qu'elle fait le buzz l'objectif est atteint.
    Le trucage de photo/vidéo à toujours exister, mais pas à ce niveau là, pas avec cette simplicité là... Et avec le site qui est capable de générer des visages qui n'existe pas, on pourrait dans pas longtemps faire témoigner des personnes qui n'existe même pas...

    A quoi ce fier après ça ?!
  • Edrixal
    Membre expérimenté
    ^
    Envoyé par Ryu2000
    Ouais bof ce n'est pas l'idéologie des puissants, donc il y a aura des trucs comme le Décodex du Monde pour dire que c'est faux.
    Si seulement c'était suffisant. Malgré le débunkage aujourd'hui encore on vois trainer des intox de longue date et les gens refuse d'entendre le contraire. Et là on parle d'intox réaliser sur paint avec de grosse flèche rouge... Alors avec des vidéos plus vrais que nature...

    Envoyé par Ryu2000
    J'ai pas lu les articles, mais tout dépend de comment c'est fait. Si c'est juste "C'est faux, c'est moi qui vous le dit, croyez moi !" ok, sa fait ministère de la vérité. Si le ton c'est "C'est faux, voilà ce qu'il c'est passer" avec des preuves, c'est OK pour moi.

    Envoyé par Ryu2000
    Pendant un moment les médias ont essayé de faire passer les gilets jaunes pour des antisémites !!!
    Ce qu'il ne faut pas entendre comme connerie...
    Oui, mais parce qu'au finale la majorité des vidéos montrer l'inverse. Maintenant tu fait lâ même avec des dizaines de vidéo qui montre des gens chanter des chans antisémite, ce sera autre chose. A l'heure actuelle c'est encore compliquer mais plus on avance en technologie plus on peut faire des choses crédible avec sont smartphone...

    Envoyé par Ryu2000
    Bon de toute façon les médias et les politiciens n'ont pas besoin de ça pour manipuler la masse.
    Deepfake aura peut-être des utilisations intéressantes.
    Les média non, quoi que cela leur facilitera la vie. Mais ceux qui ont l'habitude de vivre par les réseaux sociaux... Bref, bienvenue dans l'ère ou tout est faux.
  • Ryu2000
    Membre extrêmement actif
    Envoyé par micka132
    ca se faisait déjà avant
    Ah ouais en effet :
    Incident de Mukden
    Cet attentat a été planifié par les Japonais redoutant une unification de la Chine sous l'égide du Kuomintang, perçue comme une menace contre la prééminence japonaise dans la région. Les militaires japonais accusent les Chinois d'avoir perpétré l'attentat, donnant ainsi le prétexte à l'invasion immédiate du Sud de la Mandchourie par les troupes japonaises, et la création quelques mois plus tard de l'État fantoche du Mandchoukouo, sous l'autorité théorique de l'ex-empereur de Chine, Puyi.

    Cet incident « provoqué » n'est pas unique en son genre. Des procédés similaires sont utilisés sous l'impulsion du général Tanaka entre la fin des années 1920 et l'invasion du reste du territoire chinois, pour tenter de justifier l'expansionnisme japonais en Asie.
    Envoyé par Edrixal
    On va donc ce retrouver avec de plus en plus de fausse vidéo
    Il faut se méfier des images, elles sont manipulable.
  • sebastiano
    Membre extrêmement actif
    Tous les pays organisent ou ont organisé des false flag pour arriver à leurs fins. Cette histoire de fausse vidéo n'est qu'un moyen parmi une infinité. Ca ne me fait pas plus peur que cela, perso.
  • Ryu2000
    Membre extrêmement actif
    Envoyé par Edrixal
    quand tu vois la vitesse avec laquelle les fakes new sont propager
    Si c'est sur Facebook ou Twitter ce n'est pas encore trop grave. Ce sera dangereux quand le ministère de la vérité présentera des fausses vidéos en disant qu'elles sont vraies.

    Un peu dans ce genre la :
    «Macron dégage» : comment France 3 bidouille ses images d'illustration
    Ironie de l'histoire : trois semaines avant de supprimer une pancarte «Macron dégage» sur une photo, le JT de France 3 avait ajouté un gilet jaune portant une inscription «Macron Dégage» à une autre image.
    En moins grave il y a ça :
    Mélenchon sur TF1 : le zoom qui fâche
    Une photo postée sur Twitter contredit l'impression de foule véhiculée par les images de TF1. La Toile se moque de cette mise en scène.
    Là il y a des gens qui ont cru que les images avaient été modifiées, mais des experts ont dit que ça semblait normal :
    "Manif pour tous": la preuve que la préfecture de police n'a pas truqué ses images
    Ce qui a pu tromper les opposants au mariage pour tous pourrait résider dans le fait que les images publiées sur Internet sont si dégradées qu'il en résulte une déperdition d'informations pouvant laisser croire à l'œil nu à l'existence de modifications. Soumises à Tungstène, les mêmes images, que BFMTV.com a obtenues dans une qualité supérieure, révèlent tout autre chose.
    (...)
    "Le processus de numérisation des images a amplifié la différence de signal et de 'signature mathématique' entre les zones de détails représentées par les manifestants et ces zones lisses", explique l'expert. Avant de conclure qu'aucun élément ne permet de parler de trucage. "Il ne s'agit pas d'anomalies de structure, mais d'anomalies techniques".