Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Deepfake : les vidéos manipulées et parfaitement réelles, pourront être créées par n'importe qui d'ici 6 à 12 mois

D'après Hao Li, un pionnier de cette technologie

Le 2019-09-23 08:51:48, par Jonathan, Chroniqueur Actualités
Un deepfake est une technique de synthèse d'images basée sur l'intelligence artificielle. Elle sert principalement à superposer des images et des vidéos existantes sur d'autres images ou vidéos. Cette technologie est en développement et des chercheurs continuent d’améliorer les méthodes qui contribueront certainement à révolutionner certains secteurs d’activité. Les méthodes de deepfake deviennent incroyablement sophistiquées et permettent même déjà de créer de fausses vidéos difficilement identifiables en tant que telles.

D’ailleurs, il se pourrait que très bientôt, nous ne soyons plus en mesure de distinguer une vidéo originale d’une vidéo manipulée par une méthode de deepfake. C’est ce qu’a déclaré au cours d'une interview, Hao Li, un pionnier de cette technologie. Hao Li est professeur agrégé en informatique à l'université de Californie du Sud, et il a créé un deepfake du président russe Vladimir Poutine, qui a été présenté lors d'une conférence technique organisée par le MIT il y a quelques jours. Il soutient le développement de cette technologie, mais s’inquiète de l’usage qui pourrait en être fait.


Li fait savoir que pour le moment, il est encore possible de facilement identifier une vidéo manipulée, bien qu’il en existe déjà aussi des très convaincantes, mais qu’elles nécessitaient encore beaucoup d’efforts pour être réalisées. Mais ceci risque ne plus être un souci, car d’après les prévisions de Li à ce sujet, des images et des vidéos manipulées qui semblent parfaitement réelles pourront être réalisées par n’importe qui dans 6 à 12 mois. Il faut savoir que Li avait déjà déclaré quelques jours auparavant qu’il pensait que le deepfake parfait arriverait dans 2 ou 3 ans.

Il déclare avoir changé d’avis après avoir observé les récents développements de cette technologie, notamment l’apparition de la très populaire application chinoise Zao. Pour ceux qui ne savent pas, Zao est une application qui permet aux utilisateurs de prendre une photo et de l’insérer dans des émissions de télévision et des films populaires. Elle est actuellement l’une des applications les plus populaires en Chine.

Pour soutenir ses dernières prévisions annonçant l’avènement des deepfakes parfaits dans les 6 à 12 prochains mois, Li déclare : « Nous savons déjà comment faire, c’est juste une question de formation avec plus de données et de son implémentation ».

S’il devenait aussi difficile comme le prétend Li, de détecter des vidéos manipulées, cela deviendrait un très grave problème et on imagine que très peu comment ceci contribuerait à la propagation de la désinformation, en particulier à l'approche de l'élection présidentielle américaine de 2020. Il devient donc plus qu’urgent de trouver des solutions qui permettront de détecter assurément ces deepfakes.

Source : CNBC

Et vous ?

Qu’en pensez-vous ?
Pensez-vous qu’on puisse se fier à ces prévisions ?
Que proposeriez-vous comme solutions ?

Voir aussi :

Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo Et faire dire au sujet ce que vous voulez
Deepfake : l'app gratuite Zao vous permet de changer le visage d'un personnage de film par le vôtre Après avoir téléchargé une photo
Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, Permettant de transférer le style d'une personne à une autre
  Discussion forum
9 commentaires
  • Paul TOTH
    Expert éminent sénior
    Envoyé par Kasparrow
    Je cherche, mais je ne vois pas un seul effet bénéfique que l'on pourrait tirer de l'utilisation des deep fakes... Pourquoi continuer la recherche dans ce domaine dont on sait qu'il nous attirera plus de problèmes (notamment la désinformation évoquée par l'article) que de solutions ?
    je connais au moins une utilisation
  • Ryu2000
    Membre extrêmement actif
    Envoyé par Jonathan
    Qu’en pensez-vous ?
    Il y a un risque qu'un jour l'AFP diffuse des images manipulées et ça pourrait avoir des conséquences très grave.

    Envoyé par Jonathan
    Que proposeriez-vous comme solutions ?
    On ne peut pas l'arrêter, il faut juste des développeurs qualifié dans les bons domaines et de l'argent pour créer des logiciels de Deep Fake.

    Envoyé par Kasparrow
    Pourquoi continuer la recherche dans ce domaine dont on sait qu'il nous attirera plus de problèmes
    Il y a plusieurs raisons.
    Premièrement le fait que ça peut avoir des conséquences catastrophique ne dérangent pas certains. Est-ce que ceux qui ont développé la bombe atomique, l'agent orange, le napalm, les munitions à l'uranium appauvri, etc, ont été stoppé par les conséquences que ça pourrait avoir ?

    Après il y a la paranoïa, un pays va se dire "le pays ennemi développe cette technologie, on a pas le choix on doit le faire aussi".

    Développer des applications de deep fake ça doit être rentable, parce qu'il y a probablement des gens qui seraient prêt à payer pour remplacer le visage d'une actrice pornographique par le visage d'une autre personne.
  • _champy_
    Membre régulier
    J'en ai trouve une d'application , le doublage de film étranger pourrait paraître beaucoup plus realiste.
  • Je cherche, mais je ne vois pas un seul effet bénéfique que l'on pourrait tirer de l'utilisation des deep fakes... Pourquoi continuer la recherche dans ce domaine dont on sait qu'il nous attirera plus de problèmes (notamment la désinformation évoquée par l'article) que de solutions ?
  • Paul TOTH
    Expert éminent sénior
    Envoyé par vxlan.is.top
    Des solutions à base de blockchain pourraient être utilisées contre tout ce qui est fake (news/videos).

    -VX
    la blockchain va bientôt détrôner 42
  • Un exemple terrifiant je trouve



    -VX
  • Des solutions à base de blockchain pourraient être utilisées contre tout ce qui est fake (news/videos).

    -VX
  • Kapeutini
    Membre actif
    Le porn va être content, nos fantasmes vont avoir un visage :-)>
  • Ryu2000
    Membre extrêmement actif