Des chercheurs ont mis au point un algorithme pour détecter les deepfakes
En divisant l'image en de petites zones pour les examiner pixel par pixel

Le , par Bill Fassinou

61PARTAGES

3  0 
Un deepfake est une technique de synthèse d'images basée sur l'intelligence artificielle. Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. Le défi réside dans le fait que pour l’œil humain, il n’est pas évident que l’image a été manipulée. Les techniques de deepfake se développent très rapidement et deviennent de plus en plus performantes. Les techniques de deepfakes sont arrivées à supplanter certains algorithmes qui, autrefois, permettaient de les détecter. Dans ce sens, plusieurs scientifiques classent les deepfakes comme une menace pour l’espace Web. Par exemple, dans des situations en évolution rapide, telles qu'une crise humanitaire, le lancement d'un produit par une entreprise ou une campagne électorale, des vidéos et des images totalement fausses pourraient modifier le déroulement des événements et créer la désinformation.

Les chercheurs exploitent depuis l’apparition des deepfakes diverses solutions pour contrecarrer ces derniers, mais la plupart d’entre elles se retrouvent rapidement dépassées par l’évolution très accélérée des techniques de deepfake. Cette semaine, des chercheurs de l’université de Californie à Riverside ont présenté un nouvel algorithme de détection des images deepfakes. Les tests initiaux de l'algorithme ont sélectionné des images à partir d'images non restituées jusqu'au niveau de pixel individuel avec une précision comprise entre 71 et 95 %, en fonction du jeu de données exemple utilisé.

L'algorithme repose dans un premier temps sur une variété de « réseau de neurones récurrents » qui divise l'image en question en de petites zones et les examine pixel par pixel. Le réseau de neurones a été formé en lui permettant d’examiner des milliers d’images. Il a donc appris certaines des qualités qui permettent aux faux de se démarquer au niveau des pixels uniques. Selon Amit Roy-Chowdhury, professeur de génie électrique et informatique à l'Université de Californie à Riverside et coauteur de l’algorithme de détection, les limites autour de la partie falsifiée d'une image sont souvent ce qui contient des signes révélateurs de manipulation.


« Si un objet est inséré, ce sont souvent les régions limites qui ont certaines caractéristiques. Donc, la personne qui altère l'image essaiera probablement de le faire pour que la frontière soit très lisse. Nous avons découvert que les images altérées étaient souvent plus lisses que dans les images naturelles. Parce que la personne qui l'a manipulé s'est pliée en quatre pour que tout se passe bien », a-t-il fait comprendre. Ainsi donc, l’algorithme de détection de deepfake qu'Amit Roy-Chowdhury et ses collaborateurs ont mis au point s'appuie dans un premier temps sur cette faiblesse que contiennent les images falsifiées.

Une seconde caractéristique de l’algorithme est qu’il possède une partie qui est située sur une piste parallèle à la partie qui ne regarde que les pixels. Cette partie passe l’ensemble de l’image à travers une série de filtres d’encodage, presque comme si vous effectuez une compression d’image lorsque vous cliquez sur la case « Compresser l’image » lors de l'enregistrement d'un fichier TIFF ou JPEG. Ces filtres, dans un sens mathématique, permettent à l’algorithme de considérer l’image entière à des niveaux plus grands et plus holistiques. Par la suite, l'algorithme compare la sortie des analyses de filtres de codage pixel par pixel.

En conclusion, lorsque ces analyses parallèles déclenchent des drapeaux rouges sur la même région d'une image, celle-ci est alors considérée comme un possible deepfake. Selon Amit Roy-Chowdhury, les deepfakes ne sont en réalité qu'une nouvelle frontière en matière de cybersécurité. Et la cybersécurité est une course aux armements perpétuelle avec des méchants et des gentils progressant chacun par paliers. Pour l’universitaire, de tels algorithmes de détection pourraient constituer un outil puissant pour lutter contre cette nouvelle menace de l'ère des médias sociaux.

Néanmoins, avertit-il, les gens doivent également faire attention à ne pas devenir excessivement dépendants de ces algorithmes. Un algorithme de détection trop fiable qui peut être trompé pourrait être transformé en arme par ceux qui cherchent à répandre de fausses informations. Selon Amit Roy-Chowdhury, un deepfake conçu pour exploiter les faiblesses particulières d'un algorithme de confiance (de détection) pourrait effectivement avoir pour effet de le bénir avec un certificat d'authenticité dans l'esprit des experts, des journalistes et du public, le rendant encore plus dommageable.

« Je pense que nous devons faire attention à tout ce qui a trait à l'IA et à l'apprentissage automatique », a déclaré Amit Roy-Chowdhury. « Nous devons comprendre que les résultats de ces systèmes sont probabilistes. Et très souvent, les probabilités ne sont pas comprises entre 0,98 et 0,99. Ils sont beaucoup plus bas que ça. Nous ne devrions pas les accepter avec une foi aveugle. Ce sont des problèmes difficiles », a-t-il ajouté. Pour l’instant, l'algorithme n'a pas encore été étendu pour inclure la détection de vidéos deepfakes.

Source : Rapport de l’étude (PDF)

Et vous ?

Qu'en pensez-vous ?

Voir aussi

Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo et faire dire au sujet ce que vous voulez

Des chercheurs créent une IA qui rend facile la création de deepfakes à partir d'une seule image et les résultats sont dangereusement réalistes

Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, permettant de transférer le style d'une personne à une autre

Un sénateur propose un projet de loi prohibant l'utilisation de la technologie deepfake si elle venait à servir des buts frauduleux

Le Congrès américain va enquêter sur les deepfakes, alors qu'une fausse vidéo de Pelosi a été visionnée des millions de fois sur les médias sociaux

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de onilink_
Membre expérimenté https://www.developpez.com
Le 01/08/2019 à 10:11
@L33tige
Pour les GAN si je dis pas de bêtises c'est effectivement le cas, mais comme les deux réseaux de neurones convergent... à la fin l'adversaire reconnaîtra une image générée comme parfaite ou presque.
Puis chaque GAN à sa spécialité et donc aura un réseau adversaire spécifique aux images qu'il génère, je ne pense pas que ce soit une solution viable pour ces deux raisons.
2  0 
Avatar de matthius
Membre éprouvé https://www.developpez.com
Le 01/08/2019 à 12:14
L'IA publique pour vérifier l'IA privée.
Cherchez l'erreur monétaire.

Il s'agit donc d'aller chacun vers la réflexion scientifique définie par Platon.
1  0 
Avatar de L33tige
Membre régulier https://www.developpez.com
Le 01/08/2019 à 9:50
Mais de base dans DF ya pas un module qui fait justement ça ? Un qui essaye de convaincre, l'autre qui essaye de duper ?
0  0 
Avatar de Cpt Anderson
Membre éprouvé https://www.developpez.com
Le 01/08/2019 à 17:22
Castaner & Edouard Philippe n'ont qu'à bien se tenir !
0  0 

 
Contacter le responsable de la rubrique Intelligence artificielle

Partenaire : Hébergement Web