Le "deepfake" est un type de vidéo truquée qui utilise l'intelligence artificielle pour échanger des visages ou créer une version numérique d'une personne. Intel pense avoir une solution pour les détecter, et il s'agit d'une question de sang dans votre visage. La société a baptisé son système "FakeCatcher".
Dans les bureaux cossus, et pour la plupart vides, d'Intel dans la Silicon Valley, BBC a rencontré Ilke Demir, chercheuse scientifique aux Intel Labs, qui explique comment il fonctionne.
"Nous nous demandons ce qu'il y a de vrai dans les vidéos authentiques. Qu'est-ce qui est vrai à propos de nous ? Quel est le filigrane de l'être humain ?", explique-t-elle. Le système repose sur une technique appelée photopléthysmographie (PPG), qui détecte les variations du flux sanguin. Les visages créés par les "deepfakes" n'émettent pas ces signaux, explique-t-elle.
Le système analyse également le mouvement des yeux pour vérifier l'authenticité. "Normalement, lorsque les humains regardent un point, lorsque je vous regarde, c'est comme si je lançais des rayons de mes yeux vers vous. Mais pour les "deepfakes", c'est comme des yeux de googly, ils sont divergents", explique-t-elle.
En examinant ces deux caractéristiques, Intel pense pouvoir faire la différence entre une vraie vidéo et une fausse en quelques secondes. La société affirme que FakeCatcher est précis à 96 %. BBC a donc demandé à tester le système, Intel ayant accepté. Ils ont utilisé une douzaine de clips de l'ancien président américain Donald Trump et du président Joe Biden. Certains étaient réels, d'autres étaient des "deepfakes" créés par le Massachusetts Institute of Technology (MIT).
Pour ce qui est de trouver les deepfakes, le système s'est avéré assez bon. Ils ont surtout choisi des faux synchronisés avec les lèvres, c'est-à-dire des vidéos réelles dont la bouche et la voix avaient été modifiées. Le système a trouvé toutes les réponses, sauf une.
Cependant, lorsqu'ils ont choisi de vraies vidéos authentiques, le système a commencé à avoir des problèmes. À plusieurs reprises, le système a déclaré qu'une vidéo était fausse, alors qu'elle était en fait réelle. Plus la vidéo est pixelisée, plus il est difficile de détecter le flux sanguin. Le système n'analyse pas non plus le son. Ainsi, certaines vidéos qui semblaient manifestement réelles à l'écoute de la voix ont été classées comme fausses.
L'inquiétude est que si le programme dit qu'une vidéo est fausse, alors qu'elle est authentique, cela pourrait causer de réels problèmes. Lorsque ce point est soulevé auprès de madame Demir, elle répond que "vérifier que quelque chose est faux, par opposition à 'attention, ceci peut être faux', est pondéré différemment". Elle affirme que le système est trop prudent. Il vaut mieux attraper tous les faux et attraper aussi quelques vraies vidéos, que de rater des faux.
Les "deepfakes" peuvent être incroyablement subtils : un clip de deux secondes dans une publicité pour une campagne politique, par exemple. Elles peuvent également être de mauvaise qualité. Il suffit de changer la voix pour réaliser une contrefaçon. À cet égard, la capacité de FakeCatcher à fonctionner "dans la nature", c'est-à-dire dans des contextes réels, a été remise en question.
Matt Groh est professeur adjoint à l'université Northwestern, dans l'Illinois, et spécialiste des "deepfakes". "Je ne doute pas des statistiques qu'ils ont énumérées dans leur évaluation initiale", déclare-t-il. "Mais ce dont je doute, c'est de la pertinence de ces statistiques dans le monde réel."
C'est là qu'il devient difficile d'évaluer la technologie de FakeCatcher. Les programmes tels que les systèmes de reconnaissance faciale donnent souvent des statistiques extrêmement généreuses sur leur précision. Cependant, lorsqu'ils sont testés dans le monde réel, ils peuvent s'avérer moins précis.
En début d'année, la BBC a testé le système de reconnaissance faciale de Clearview AI en utilisant ses propres photos. Bien que la puissance de la technologie soit impressionnante, il était clair que plus la photo était pixelisée et plus le visage était de profil, plus le programme avait du mal à identifier quelqu'un. En fait, la précision dépend entièrement de la difficulté du test.
Intel affirme que FakeCatcher a fait l'objet de tests rigoureux. Il s'agit notamment d'un test "sauvage", dans lequel l'entreprise a rassemblé 140 fausses vidéos et leurs équivalents réels. Lors de ce test, le système a obtenu un taux de réussite de 91 %, selon Intel.
Cependant, Matt Groh et d'autres chercheurs souhaitent que le système fasse l'objet d'une analyse indépendante. Ils estiment qu'il n'est pas suffisant qu'Intel établisse un test pour elle-même. "J'aimerais beaucoup que ces systèmes soient évalués", déclare M. Groh. "Je pense que c'est très important lorsque nous concevons des audits et que nous essayons de comprendre à quel point quelque chose est précis dans un contexte réel", ajoute-t-il.
Il est surprenant de constater à quel point il peut être difficile de distinguer une fausse vidéo d'une vraie. Cette technologie a certainement du potentiel, mais d'après les tests limités de BBC, elle a encore du chemin à parcourir.
Source : BBC
Et vous ?
Pensez-vous que ces tests sont crédibles ou pertinents ?
Quel est votre avis sur "FakeCatcher" et les outils de détection similaires ?
Voir aussi :
Un outil de détection d'Intel utilise le flux sanguin pour identifier les deepfakes avec une précision de 96 %,
L'outil s'appuie sur des processeurs Xeon Scalable de 3e génération
Des chercheurs développent une IA capable de détecter les vidéos deepfake avec une précision allant jusqu'à 99 %
Cette méthode détecte les expressions faciales manipulées et les échanges d'identité
Le nombre de contenus deepfake en ligne augmente à un rythme annuel de 900 %
D'après le World Economic Forum