IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Deepfake : l'app gratuite Zao vous permet de changer le visage d'un personnage de film par le votre
Après avoir téléchargé une photo

Le , par Stéphane le calme

655PARTAGES

14  0 
Une application chinoise qui permet aux utilisateurs de changer de manière convaincante le visage d'un personnage de films ou de chaînes de télévision par leur visage est rapidement devenue l’une des applications les plus téléchargées du pays, déclenchant une série de questions relatives à la confidentialité. Lancée vendredi 30 août, l'application Zao serait devenue l’application gratuite la plus téléchargée en Chine d’après la société d’analyses App Annie.

Les utilisateurs chinois ont saisi l'opportunité de se voir jouer des scènes de films connus utilisant la technologie deepfake, ce qui a déjà suscité des inquiétudes au sujet d'un éventuel abus.

Allan Xia, utilisateur de Twitter, a publié une démonstration détaillée de ce que l'application est capable de faire avec un clip de 30 secondes de son visage remplaçant celui de Leonardo Dicaprio lors de moments célèbres de plusieurs de ses films. Selon Xia, les clips ont été générés en moins de huit secondes à partir d'une seule photo. Cependant, Bloomberg note que l'application peut également vous guider tout au long du processus de prise d'une série de photographies (où elle vous demandera d'ouvrir et de fermer la bouche, de cligner des yeux, d'arborer des expressions faciales) pour générer des résultats plus réalistes.

En somme, les utilisateurs fournissent une série de selfies que l’application utilise pour transformer de façon réaliste un personnage dans un film, une émission de télévision ou d’autres contenus.


Selon Xia, l'application ne propose qu'un nombre limité de clips dans lesquels vous pouvez insérer votre visage. Le développeur de l’application a probablement formé ses algorithmes sur chacun de ces clips pour remodeler facilement le visage de l’utilisateur sur eux, comme le spécule Xia. L'application ne peut pas mapper votre visage sur un clip vidéo de votre choix.

La technologie ressemble à ce qu'ont montré récemment des chercheurs de l’Imperial College de Londres, qui ont présenté une technologie capable de transformer une photo unique en portrait chantant. La différence ici est que Zao insère votre image dans une vidéo existante, plutôt que d’animer directement une photo de vous. Néanmoins, cela montre à quel point la technologie sous-jacente a évolué rapidement : ce qui nécessitait autrefois des centaines d’images pour créer une vidéo deepfake plutôt convaincante ne nécessite désormais plus qu’une seule image avec de meilleurs résultats.


Des conditions d'utilisation qui inquiètent

La société a été obligée de publier dimanche une déclaration dans laquelle elle annonçait des modifications après que les critiques eurent attaqué la politique de confidentialité de l'application, qui disposait de droits « gratuits, irrévocables, permanents, transférables et dont la licence peut être reconduite » sur tout contenu généré par l'utilisateur.

Les deepfakes, qui utilisent l'intelligence artificielle pour paraître authentiques, suscitent de plus en plus d'inquiétudes. Les critiques disent que la technologie peut être utilisée pour créer de fausses vidéos permettant de manipuler des élections, de diffamer quelqu'un ou de potentiellement e causer des troubles en diffusant des informations erronées à grande échelle.

« Nous comprenons les préoccupations concernant la vie privée. Nous avons reçu les commentaires et nous allons régler les problèmes que nous n’avons pas pris en compte, ce qui prendra un certain temps », a déclaré Zao. Zao appartient à Momo Inc, un service de rencontres apparenté à Tinder qui est coté au Nasdaq américain. Momo Inc a déjà été épinglée en 2014 pour une faille de sécurité. Les mots de passe et données de 30 millions d’utilisateurs d’une application de rencontres qu’il détenait avaient alors été exposés. Le spécialiste du numérique Baptiste Robert (alias Elliot Alderson) a d'ailleurs émis des doutes sur la sécurité du stockage des données en ligne : il serait assez simple d’accéder aux photos et montages laissés par des utilisateurs, sans mot de passe. Il suffirait pour ceci d’avoir le lien vers l’image en question.

Depuis, l'entreprise a changé ses termes. Elle s'est par exemple engagée à supprimer de ses serveurs tout contenu téléchargé, mais supprimé ultérieurement par les utilisateurs.


C’est une controverse similaire à celle qui a entouré FaceApp plus tôt cette année, lorsque l’application qui permettait aux utilisateurs de voir à quoi ils ressembleraient plus vieux est redevenue virale en juillet. Le développeur de l’application a été contraint de clarifier sa politique de confidentialité et d’offrir aux utilisateurs la possibilité de supprimer leurs photos de leurs serveurs s’ils le souhaitaient. Dans le cas de FaceApp, les commentateurs ont rapidement souligné que la politique de confidentialité de l’application n’était pas plus envahissante que la plupart des applications mobiles les plus populaires à travers le monde.

Les manifestants à Hong Kong s'efforcent de se couvrir le visage de peur que la police utilise la technologie de reconnaissance faciale pour identifier et arrêter des cibles. Dans certaines zones du monde, les gens sont de plus en plus conscients de l’importance de leurs données d’imagerie faciale et s’inquiètent à juste titre des entreprises qui ne prennent pas les mesures de protection adéquates pour les protéger.

Toutefois, cela n'a pas entamé la popularité de l'application qui est restée en tête des applications de téléchargement gratuit en Chine lundi soir, selon App Annie.

Source : Allan Xia, Zao (via Weibo), Radii, Elliot Anderson

Et vous ?

Que pensez-vous de cette application ? Êtes-vous tenté de l'essayer ?
Quel serait, selon vous, le pire scénario qui puisse arriver ?
Faut-il craindre les deepfake en général ?

Voir aussi :

Des chercheurs ont mis au point un algorithme pour détecter les deepfakes en divisant l'image en de petites zones pour les examiner pixel par pixel
Des utilisateurs s'inquiètent des risques potentiels sur la vie privée apportés par FaceApp, l'app qui permet d'appliquer un filtre vieillissant
GitHub supprime de sa plateforme les versions open source de DeepNude, l'application qui crée des images de femmes nues en quelques secondes
Une nouvelle application deepfake générée par l'IA créé des images de femmes nues en quelques secondes, elle est maintenant supprimée de l'Internet

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Edrixal
Membre expérimenté https://www.developpez.com
Le 03/09/2019 à 13:58
Ce genre d'outil, malheureusement comme tous les outils, ne seront pas utilisé pour de bonne chose (délirer, j'vois pas trop ce que tu peut faire de bien avec ?!).
On va donc ce retrouver avec de plus en plus de fausse vidéo pour faire monter la haine afin que les plus extrémistes puisse gagner des voix.

Quant ont pense que dans certain pays il y à eux des lynchages publique (avec mort à la clé) sur de simple rumeur partager sur les réseaux sociaux, j'imagine même pas ce qu'une personne mal intentionnée peut générer comme dégât sur la vie d'une personne avec de fausse vidéo bien montée...
8  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 03/09/2019 à 10:56
Citation Envoyé par Stéphane le calme Voir le message
Quel serait, selon-vous, le pire scénario qui puisse arriver ?
Remplacer le visage d'une actrice pornographique par celui de Merkel.
Je pense que le pire scénario serait que les médias officielles, comme l'AFP, fassent passer des fausses vidéos pour des vraies, ce serait une terrible arme de propagande.
Cet outil peut être utilisé pour créer des fausses preuves facilement. (on pourrait faire dire n'importe quoi à Ben Laden)

Un état peut faire une attaque sous faux drapeau, en s'attaquant lui même et en mettant la faute sur un autre pays.
9  2 
Avatar de Edrixal
Membre expérimenté https://www.developpez.com
Le 03/09/2019 à 14:20
Citation Envoyé par Ryu2000 Voir le message
Il faut se méfier des images, elles sont manipulable.
Tu est au courant, moi aussi. La plupart des gens sur se forum également. Mais quand tu vois la vitesse avec laquelle les fakes new sont propager, du moment que sa confirme le biais de confirmation, imagine le potentiel destructeur que sa peut apporter ?! Les gens n'en aurons rien à foutre que ce soit une fausse vidéo, du moment que sa les confortes dans leur pensées...
4  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 03/09/2019 à 14:10
Citation Envoyé par Ryu2000 Voir le message
Un état peut faire une attaque sous faux drapeau, en s'attaquant lui même et en mettant la faute sur un autre pays.
Le pire c'est que ca se faisait déjà avant
3  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 03/09/2019 à 15:12
Citation Envoyé par Edrixal Voir le message
pourrait permettre à l'extrême droit de gagner facilement une élection
Ouais bof ce n'est pas l'idéologie des puissants, donc il y a aura des trucs comme le Décodex du Monde pour dire que c'est faux.
Aujourd'hui dans Google News à droite il y a une zone "Fact-Checking" avec des liens de AFP factuel.
Non, cette photo ne montre pas une Yazidie vendue comme esclave sexuelle en Arabie Saoudite
Non, le directeur de cabinet de Brigitte Macron ne touche pas 278.000€ par an
Non, cette photographie ne montre pas une nuée d'oiseaux attaquant un avion
Non, ni Messi ni Ronaldo n'ont affrété des Canadair pour éteindre les incendies en Amazonie
Je suis pas fan du concept, c'est complètement le ministère de la vérité qui dit ce qui est vrai et ce qui est faux.

Citation Envoyé par Edrixal Voir le message
On pourrait aussi imaginer faire dire aux opposants politiques des énormités, histoire de les décrédibilisé. Pas aux grosses figure hein, eux ils ont le réseaux pour porter plainte ect... Mais les GJ, les petits parti politique, les associations, ect...
Pendant un moment les médias ont essayé de faire passer les gilets jaunes pour des antisémites !!!
Ce qu'il ne faut pas entendre comme connerie...

===
Bon de toute façon les médias et les politiciens n'ont pas besoin de ça pour manipuler la masse.
Deepfake aura peut-être des utilisations intéressantes.
3  1 
Avatar de Edrixal
Membre expérimenté https://www.developpez.com
Le 03/09/2019 à 14:54
Citation Envoyé par Ryu2000 Voir le message
Si c'est sur Facebook ou Twitter ce n'est pas encore trop grave. Ce sera dangereux quand le ministère de la vérité présentera des fausses vidéos en disant qu'elles sont vraies.

Un peu dans ce genre la :
«Macron dégage» : comment France 3 bidouille ses images d'illustration

En moins grave il y a ça :
Mélenchon sur TF1 : le zoom qui fâche

Là il y a des gens qui ont cru que les images avaient été modifiées, mais des experts ont dit que ça semblait normal :
"Manif pour tous": la preuve que la préfecture de police n'a pas truqué ses images
Sa pourrait aller bien plus loin, tu prend un type bazanner et lui fait dire des choses comme "Il faut tuer ses sales blancs !", ect...
Puis un autre.
Puis un autre.
Puis...

Et à chaque fois tu publie et distribue la vidéo. C'est du faux, mais les intéresser s'en moquerons cela confirmera leur conviction. Et ils s'en servirons pour propager leur parole.

Et là je prend un exemple simpliste, mais rien que ça, pourrait permettre à l'extrême droit de gagner facilement une élection et plus besoin des fakes news sur les aides, les cartes de crédit ou je ne sais trop quoi donner aux migrants.

On pourrait aussi imaginer faire dire aux opposants politiques des énormités, histoire de les décrédibilisé. Pas aux grosses figure hein, eux ils ont le réseaux pour porter plainte ect... Mais les GJ, les petits parti politique, les associations, ect...

Peut importe que l'image soit vrais ou fausse, du moment qu'elle fait parler l'émotion et qu'elle fait le buzz l'objectif est atteint.
Le trucage de photo/vidéo à toujours exister, mais pas à ce niveau là, pas avec cette simplicité là... Et avec le site qui est capable de générer des visages qui n'existe pas, on pourrait dans pas longtemps faire témoigner des personnes qui n'existe même pas...

A quoi ce fier après ça ?!
1  0 
Avatar de Edrixal
Membre expérimenté https://www.developpez.com
Le 03/09/2019 à 15:40
^
Citation Envoyé par Ryu2000 Voir le message
Ouais bof ce n'est pas l'idéologie des puissants, donc il y a aura des trucs comme le Décodex du Monde pour dire que c'est faux.
Si seulement c'était suffisant. Malgré le débunkage aujourd'hui encore on vois trainer des intox de longue date et les gens refuse d'entendre le contraire. Et là on parle d'intox réaliser sur paint avec de grosse flèche rouge... Alors avec des vidéos plus vrais que nature...

Citation Envoyé par Ryu2000 Voir le message
J'ai pas lu les articles, mais tout dépend de comment c'est fait. Si c'est juste "C'est faux, c'est moi qui vous le dit, croyez moi !" ok, sa fait ministère de la vérité. Si le ton c'est "C'est faux, voilà ce qu'il c'est passer" avec des preuves, c'est OK pour moi.

Citation Envoyé par Ryu2000 Voir le message
Pendant un moment les médias ont essayé de faire passer les gilets jaunes pour des antisémites !!!
Ce qu'il ne faut pas entendre comme connerie...
Oui, mais parce qu'au finale la majorité des vidéos montrer l'inverse. Maintenant tu fait lâ même avec des dizaines de vidéo qui montre des gens chanter des chans antisémite, ce sera autre chose. A l'heure actuelle c'est encore compliquer mais plus on avance en technologie plus on peut faire des choses crédible avec sont smartphone...

Citation Envoyé par Ryu2000 Voir le message
Bon de toute façon les médias et les politiciens n'ont pas besoin de ça pour manipuler la masse.
Deepfake aura peut-être des utilisations intéressantes.
Les média non, quoi que cela leur facilitera la vie. Mais ceux qui ont l'habitude de vivre par les réseaux sociaux... Bref, bienvenue dans l'ère ou tout est faux.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 03/09/2019 à 14:14
Citation Envoyé par micka132 Voir le message
ca se faisait déjà avant
Ah ouais en effet :
Incident de Mukden
Cet attentat a été planifié par les Japonais redoutant une unification de la Chine sous l'égide du Kuomintang, perçue comme une menace contre la prééminence japonaise dans la région. Les militaires japonais accusent les Chinois d'avoir perpétré l'attentat, donnant ainsi le prétexte à l'invasion immédiate du Sud de la Mandchourie par les troupes japonaises, et la création quelques mois plus tard de l'État fantoche du Mandchoukouo, sous l'autorité théorique de l'ex-empereur de Chine, Puyi.

Cet incident « provoqué » n'est pas unique en son genre. Des procédés similaires sont utilisés sous l'impulsion du général Tanaka entre la fin des années 1920 et l'invasion du reste du territoire chinois, pour tenter de justifier l'expansionnisme japonais en Asie.
Citation Envoyé par Edrixal Voir le message
On va donc ce retrouver avec de plus en plus de fausse vidéo
Il faut se méfier des images, elles sont manipulable.
1  1 
Avatar de sebastiano
Membre extrêmement actif https://www.developpez.com
Le 03/09/2019 à 14:27
Tous les pays organisent ou ont organisé des false flag pour arriver à leurs fins. Cette histoire de fausse vidéo n'est qu'un moyen parmi une infinité. Ca ne me fait pas plus peur que cela, perso.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 03/09/2019 à 14:37
Citation Envoyé par Edrixal Voir le message
quand tu vois la vitesse avec laquelle les fakes new sont propager
Si c'est sur Facebook ou Twitter ce n'est pas encore trop grave. Ce sera dangereux quand le ministère de la vérité présentera des fausses vidéos en disant qu'elles sont vraies.

Un peu dans ce genre la :
«Macron dégage» : comment France 3 bidouille ses images d'illustration
Ironie de l'histoire : trois semaines avant de supprimer une pancarte «Macron dégage» sur une photo, le JT de France 3 avait ajouté un gilet jaune portant une inscription «Macron Dégage» à une autre image.
En moins grave il y a ça :
Mélenchon sur TF1 : le zoom qui fâche
Une photo postée sur Twitter contredit l'impression de foule véhiculée par les images de TF1. La Toile se moque de cette mise en scène.
Là il y a des gens qui ont cru que les images avaient été modifiées, mais des experts ont dit que ça semblait normal :
"Manif pour tous": la preuve que la préfecture de police n'a pas truqué ses images
Ce qui a pu tromper les opposants au mariage pour tous pourrait résider dans le fait que les images publiées sur Internet sont si dégradées qu'il en résulte une déperdition d'informations pouvant laisser croire à l'œil nu à l'existence de modifications. Soumises à Tungstène, les mêmes images, que BFMTV.com a obtenues dans une qualité supérieure, révèlent tout autre chose.
(...)
"Le processus de numérisation des images a amplifié la différence de signal et de 'signature mathématique' entre les zones de détails représentées par les manifestants et ces zones lisses", explique l'expert. Avant de conclure qu'aucun élément ne permet de parler de trucage. "Il ne s'agit pas d'anomalies de structure, mais d'anomalies techniques".
0  0