IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges
Selon une étude

Le , par Bill Fassinou

131PARTAGES

4  0 
Depuis que l’IA a commencé à s’imposer très fortement comme une technologie pouvant améliorer la génération d’images et de vidéo, les deepfakes se sont multipliés avec une vitesse sans précédent sur Internet. Les méthodes existantes de génération de deepfakes sont incroyablement sophistiquées et permettent déjà de créer de fausses vidéos difficilement identifiables en tant que telles. Mais, cela est également devenu un problème à bien des égards, en ce sens que n’importe qui peut rassembler quelques images d’une personne par exemple, les manipuler, puis les animer dans un contexte qui serait nuisible à cette dernière.

Les avancées très prometteuses de l’IA ont rendu fiables les techniques de génération de deepfake. Un deepfake (permutation intelligente de visages), rappelons-le, est une technique de synthèse d'images basée sur l'intelligence artificielle. Elle sert principalement à superposer des images et des vidéos existantes sur d'autres images et/ou vidéos (par exemple : le changement de visage d'une personne sur une vidéo). Le terme est un mot-valise formé à partir de deep learning (« apprentissage profond ») et de fake (« faux »). Les deepfakes sont surtout connus pour avoir été utilisés afin de créer de fausses vidéos érotiques (sextapes), mettant en scène des célébrités, et de la pornodivulgation (revenge porn). Cette technique peut être utilisée pour créer des infox (fake news) et des canulars malveillants.

En à peine deux ans, les techniques de génération de deepfakes se sont non seulement amélioré très dangereusement, mais également, elles se sont multipliées avec une grande vitesse. En mai de cette année, les chercheurs ont présenté une IA qui rend facile la création de deepfakes à partir d'une seule image avec des résultats dangereusement réalistes. Ils ont en effet mis au point un moyen de créer des deepfakes ou « portraits vivants » à partir d'un très petit ensemble de données, une seule photographie suffit dans certains cas. Même à ce stade, les méthodes de génération des deepfakes font actuellement l'objet de recherches pour ces dernières encore plus efficaces.


L’une des préoccupations majeures sur la technologie aujourd’hui est qu'elle soit utilisée contre des personnes pour les représenter dans des situations auxquelles elles s'opposeraient, par exemple dans des vidéos pornographiques. Précisons en effet que c'était le but original de cette technologie : elle peut être utilisée dans l’industrie porno, où des visages peuvent être supposés à d’autres. Mais, malgré les nombreuses craintes que les deepfakes soient utilisés à des fins malveillantes, les recherches pour rendre cette technologie plus puissante se multiplient. Pour les législateurs US, les deepfakes représentent aussi un danger politique réel. D’ailleurs, Donald Trump lui-même été mis en scène dans une telle vidéo en janvier dernier sur une chaîne de télévision nationale du pays.

La propagation de la désinformation par le biais d'images et de vidéos synthétiques, mais réalistes, est devenue un problème majeur qui appelle de nouvelles méthodes de détection des manipulations, a fait savoir un groupe de chercheurs qui a publié récemment une IA capable de détecter les deepfakes. Jusque-là, on ne connaissait pas vraiment un outil capable de réaliser une telle détection, mais selon les résultats de l’étude qu’ils ont publiés, il semblerait que les machines d’IA peuvent désormais rechercher des incohérences visuelles pour identifier les dupes générées par l'IA, un peu comme le font les humains. Leur IA permet de rechercher les incohérences visuelles similaires à celles de l'homme afin de détecter les fausses vidéos générées par l'IA.

Tout d’abord, les modèles convolutifs récurrents sont une classe de modèles d'apprentissage en profondeur qui se sont révélés efficaces pour exploiter les informations temporelles provenant de flux d'images, dans plusieurs domaines. Ainsi, expliquent les chercheurs, cela permet d’obtenir la meilleure stratégie pour combiner les variations de ces modèles ainsi que les techniques de prétraitement des visages spécifiques à un domaine, par le biais d'expérimentations approfondies visant à obtenir des performances de pointe sur des tests de manipulation faciale vidéo accessibles au public. Plus précisément, ils ont essayé de détecter les visages altérés Deepfake, Face2Face et FaceSwap dans les flux vidéo.

Leur approche pour parvenir à détecter les diverses manipulations de photos ou vidéos est un processus en deux étapes : rognage et alignement des visages à partir d’images vidéo, suivi de la détection de manipulation sur la région faciale prétraitée. Pour le premier cas, ils ont expérimenté deux techniques d’alignement : un alignement explicite à l’aide de repères faciaux, dans lequel un système de coordonnées de référence et l’étanchéité du contour du visage sont déterminés à priori et où tous les visages sont alignés sur ce système de coordonnées de référence de sorte que tout mouvement rigide du visage est compensé, et un second alignement implicite utilisant un réseau de transformateurs spatiaux (STN) basé sur une transformation affine.

Pour la détection des manipulations, ils ont utilisé un réseau convolutionnel récurrent, où l'entrée est une séquence d'images de la requête vidéo. L'intuition derrière ce modèle est d'exploiter les différences temporelles entre les cadres. Des différences temporelles sont attendues dans les images, car les manipulations sont effectuées image par image. En tant que tels, les artefacts de bas niveau provoqués par des manipulations sur les faces sont censés se manifester davantage sous forme d'artefacts temporels avec des caractéristiques incohérentes dans les images. Selon le document, cette approche a permis d'identifier les deepfakes avec une précision de plus de 90 %.

Wael AbdAlmageed, un coauteur de l’étude, a affirmé que ce modèle pourrait être utilisé par un réseau social pour identifier les deepfakes à grande échelle, car il ne dépend pas de l'apprentissage des principales caractéristiques d'un individu spécifique, mais plutôt des qualités du mouvement en général. Il a expliqué que le modèle qu'ils ont mis au point constitue une généralité pour toutes les personnes puisque celui-ci ne se concentre pas sur l'identité d’une personne spécifique, mais plutôt sur la cohérence du mouvement du visage.

« Les réseaux sociaux ne doivent pas former de nouveaux modèles, car nous publierons notre propre modèle. Ce que les réseaux sociaux pourraient faire, c'est simplement inclure le logiciel de détection dans leurs plateformes pour examiner les vidéos téléchargées sur ces plateformes », a-t-il lancé à l’endroit des sites de médias sociaux. Même si les chercheurs estiment que leur méthode est d’une précision de l’ordre de 90 %, dans la communauté, certains restent néanmoins sceptiques. Ces derniers doutent de l’efficacité de la méthode utilisée par les chercheurs pour obtenir leur résultat.

Les deepfakes sont en même temps perçus comme une avancée majeure dans les potentialités de l’IA, mais ils deviennent également source de multiples interrogations au sein des gouvernements. La désinformation est plus que jamais un défi et, associée à l'avenir aux deepfakes, l’Internet pourrait bien devenir calamité, craignent certains scientifiques. Aux USA, le Congrès a commencé à s’inquiéter sur la question et a récemment ouvert une enquête sur les deepfakes après qu’une fausse vidéo de Nancy Pelosi, la présidente de la chambre des représentants a été visionnée des millions de fois sur les médias sociaux.

Source : Rapport de l’étude

Et vous ?

Que pensez-vous des méthodes employées par cette étude ?
Cela vous paraît-il convainquant pour la détection des deepfakes ?
Connaissez-vous d'autres alternatives pour détecter les deepfakes ?

Voir aussi

Des chercheurs créent une IA qui rend facile la création de deepfakes à partir d'une seule image et les résultats sont dangereusement réalistes

Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo et faire dire au sujet ce que vous voulez

Une vidéo deepfake de Donald Trump diffusée sur une chaîne de TV nationale ? L'employé responsable a été licencié

Le Congrès américain va enquêter sur les deepfakes, alors qu'une fausse vidéo de Pelosi a été visionnée des millions de fois sur les médias sociaux

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de MaximeCh
Membre éprouvé https://www.developpez.com
Le 23/06/2019 à 0:39
Oui enfin "ya qu'à "faire un réseau neuronal pro-deepfake dont l'objectif est de battre l'anti-deepfake et cette histoire n'a pas de fin?
C'est le principe des DCGAN.
3  0