Les faux visages créés par l'intelligence artificielle IA semblent plus dignes de confiance que les visages de personnes réelles, révèle une nouvelle étude inquiétante. Les chercheurs ont mené plusieurs expériences pour voir si les faux visages créés par l’apprentissage automatique étaient capables de tromper les humains. Les "deepfakes" ont déjà été utilisés pour la "revenge porn", la fraude et la propagande, ce qui a conduit à des erreurs d'identité et à la diffusion de fausses nouvelles. La nouvelle étude a été menée par Sophie J. Nightingale de l'université de Lancaster et Hany Farid de l'université de Californie, Berkeley.
« Notre évaluation du réalisme photographique des visages synthétisés par l'IA indique que les moteurs de synthèse ont franchi la "vallée de la peur" et sont capables de créer des visages impossibles à distinguer - et plus dignes de confiance - que les visages réels », affirment leschercheurs. La conséquence la plus pernicieuse est peut-être que, dans un monde numérique où toute image ou vidéo peut être truquée, l'authenticité de tout enregistrement gênant ou importun peut être remise en question.
Pour l'étude, les experts ont utilisé de faux visages créés avec StyleGAN2, un "réseau génératif contradictoire" de la société technologique américaine Nvidia. Les réseaux génératifs adverses opposent deux algorithmes dans le but de créer des représentations convaincantes du monde réel. Les visages synthétiques de cette étude ont été développés dans le cadre d'interactions en va-et-vient entre deux réseaux neuronaux, exemples d'un type connu sous le nom de réseaux adversatifs génératifs. L'un des réseaux, appelé générateur, a produit une série évolutive de visages synthétiques, à la manière d'un étudiant travaillant progressivement sur des brouillons. L'autre réseau, appelé discriminateur, s'est entraîné sur des images réelles et a ensuite évalué le résultat généré en le comparant à des données sur des visages réels.
Le générateur a commencé l'exercice avec des pixels aléatoires. Grâce aux commentaires du discriminateur, il a progressivement produit des visages humains de plus en plus réalistes. En fin de compte, le discriminateur a été incapable de distinguer un vrai visage d'un faux. Les réseaux se sont entraînés sur une série d'images réelles représentant des visages de Noirs, d'Asiatiques de l'Est, d'Asiatiques du Sud et de Blancs, hommes et femmes, contrairement à l'utilisation plus courante de visages d'hommes blancs dans les recherches précédentes.
Lors de la première expérience, 315 participants ont classé 128 visages tirés d'un ensemble de 800 comme étant réels ou synthétiques. Leur taux d'exactitude était de 48 %, proche d'une performance aléatoire de 50 %, ont-ils constaté.
Dans une deuxième expérience, 219 nouveaux participants ont été formés et ont reçu des informations sur la façon de classer les visages. Ils ont classé 128 visages tirés du même ensemble de 800 visages que lors de la première expérience ; mais malgré leur entraînement, le taux de précision n'a atteint que 59 %.
Les chercheurs ont donc décidé de déterminer si la perception de la fiabilité pouvait aider les gens à identifier des images artificielles dans le cadre d'une troisième expérience. « Les visages constituent une riche source d'informations, et une exposition de quelques millisecondes suffit pour faire des déductions implicites sur des caractéristiques individuelles telles que la fiabilité », indiquent les auteurs. La troisième expérience a demandé à 223 participants d'évaluer la fiabilité de 128 visages pris dans le même ensemble de 800 visages sur une échelle de 1 (très indigne de confiance) à 7 (très digne de confiance). La note moyenne attribuée aux visages synthétiques était 7,7 % plus fiable que celle attribuée aux visages réels, ce qui est « statistiquement significatif ».
Les visages noirs ont été jugés plus dignes de confiance que les visages sud-asiatiques, mais pour le reste, il n'y a pas eu d'effet sur la diversité raciale. Cependant, les femmes ont été jugées significativement plus dignes de confiance que les hommes. Les chercheurs affirment que le fait que les visages soient souriants ou non) ce qui aurait pu augmenter la perception de la fiabilité (n'a pas affecté les résultats. « Un visage souriant est plus susceptible d'être jugé digne de confiance, mais 65,5 % des visages réels et 58,8 % des visages synthétiques sont souriants, de sorte que l'expression faciale ne peut expliquer à elle seule pourquoi les visages synthétiques sont jugés plus dignes de confiance », soulignent-ils. Ils suggèrent plutôt que les visages synthétiques peuvent être considérés comme plus dignes de confiance parce qu'ils ressemblent à des visages ordinaires, qui sont eux-mêmes jugés plus dignes de confiance.
Pour protéger le public des "deepfakes", les chercheurs proposent des lignes directrices pour la création et la distribution d'images de synthèse
Les garanties pourraient inclure, par exemple, l'intégration de filigranes robustes dans les réseaux de synthèse d'images et de vidéos, qui fourniraient un mécanisme en aval pour une identification fiable. Les auteurs de l'étude terminent par une conclusion sévère après avoir souligné que les utilisations trompeuses des deepfakes continueront à représenter une menace. Ils encouragent donc ceux qui développent ces technologies à se demander si les risques associés sont plus importants que leurs avantages. Si c'est le cas, alors ils decouragent le développement d'une technologie simplement parce qu'elle est possible.
« Étant donné que c'est la démocratisation de l'accès à cette technologie puissante qui constitue la menace la plus importante, nous encourageons également le réexamen de l'approche souvent laxiste de la diffusion publique et sans restriction du code que chacun peut intégrer dans n'importe quelle application. À ce moment crucial et comme l'ont fait d'autres domaines scientifiques et techniques, nous encourageons la communauté des graphistes et des visionneurs à élaborer des lignes directrices pour la création et la distribution de technologies de médias synthétiques qui intègrent des directives éthiques pour les chercheurs, les éditeurs et les distributeurs de médias ».
Source : PNAS
Et vous ?
Que pensez-vous des résultats de cette recherche ? Les trouvez-vous pertinent ?
Les experts affirment que nous ne pouvons pas faire la différence entre un visage créé par l'IA et un vrai visage. Êtes-vous d’accord avec cette affirmation ?
Pensez-vous être capable de différencier un visage vrai, d’un généré par l’IA ?
Voir aussi :
Nvidia a mis au point une IA capable de générer des visages humains totalement crédibles, une menace pour l'identité en ligne ?
Des cybercriminels ont utilisé la technologie deepfake pour voler 35 millions de dollars à une banque, en clonant la voix du directeur
Deepfake : les vidéos manipulées et parfaitement réelles, pourront être créées par n'importe qui d'ici 6 à 12 mois, d'après Hao Li, un pionnier de cette technologie
Ce site montre des portraits de visages humains générés par une IA. Aucun d'entre eux n'est réel. Actualisez la page pour en voir un nouveau