Les chercheurs ont utilisé le terme « hyperréalisme » pour décrire ce phénomène par lequel les gens pensent que les visages générés par l’IA sont plus réels que les visages humains réels. Dans leurs travaux, les chercheurs ont présenté à des adultes blancs un mélange de 100 visages blancs générés par l’IA et de 100 visages blancs réels, en leur demandant d’identifier lesquels étaient réels et la confiance qu’ils avaient dans leur décision.
Sur 124 participants, 66 % des images générées par l’IA ont été identifiées comme humaines, contre 51 % pour les images réelles. Cette tendance n’a toutefois pas été observée pour les images de personnes de couleur, pour lesquelles les visages IA et réels ont été jugés humains dans environ 51 % des cas, quelle que soit la race du participant.
L'avènement de la révolution de l'intelligence artificielle a marqué un changement sociétal sans précédent. La génération de visages d'IA réalistes et semblables à ceux de l'homme, associée à la crainte que l'IA ne fausse la perception de la vérité, est au cœur de ce changement. Les visages générés par l'IA sont désormais largement disponibles et sont utilisés à des fins tant prosociales que néfastes, qu'il s'agisse de retrouver des enfants disparus ou de transmettre des informations politiques erronées par le biais de faux comptes de médias sociaux.
Les visages de l'IA sont désormais si réalistes que les gens ne parviennent souvent pas à détecter qu'ils ne sont pas humains. Cependant, en raison de la rapidité des progrès de cette technologie, peu de tests empiriques ont été effectués sur cette capacité. Selon les chercheurs, les visages de l'IA ne sont pas seulement impossibles à distinguer des visages humains, mais qu'en fait, ils peuvent être perçus comme plus « humains » que les vrais visages humains.
L'intelligence artificielle peut désormais générer des visages qui sont impossibles à distinguer des visages humains. Toutefois, les algorithmes d'IA ont tendance à être formés en utilisant un nombre disproportionné de visages blancs. Par conséquent, les visages de l'IA peuvent sembler particulièrement réalistes lorsqu'ils sont blancs. Les chercheurs montrent que les visages blancs (mais pas les non-blancs) de l'IA sont, de manière remarquable, jugés comme humains plus souvent que les images de vrais humains.
Illustration schématique de la théorie de l'espace facial : une explication potentielle de l'hyperréalisme de l'IA. Les points orange montrent la distribution d'un échantillon de visages humains ; les points violets montrent la distribution hypothétique des visages de l'IA.
Dans leurs expériences, les chercheurs ont présenté à des adultes blancs un mélange de 100 visages blancs générés par l'IA et de 100 visages blancs réels, en leur demandant d'identifier lesquels étaient réels et la confiance qu'ils avaient dans leur décision. Sur 124 participants, 66 % des images générées par l'IA ont été identifiées comme humaines, contre 51 % pour les images réelles. Cette tendance n'a toutefois pas été observée pour les images de personnes de couleur, pour lesquelles les visages IA et réels ont été jugés humains dans environ 51 % des cas, quelle que soit la race du participant.
L'étude a également montré que les participants qui identifiaient souvent mal les visages faisaient preuve d'une plus grande confiance dans leurs jugements, ce qui, selon les chercheurs, est une manifestation de l'effet Dunning-Kruger. En d'autres termes, les personnes les plus confiantes se trompent plus souvent. « Il est problématique de constater que les personnes les plus susceptibles d'être trompées par les visages d'IA sont les moins susceptibles de détecter qu'elles sont trompées », déclarent les chercheurs.
L’impact de l’hyperréalisme de l’IA sur la perception des visages et les préjugés sociaux
Les chercheurs expliquent pourquoi l'hyperréalisme de l'IA se produit et montrent que tous les visages de l'IA ne sont pas aussi réalistes, ce qui a des conséquences sur la prolifération des préjugés sociaux et sur la mauvaise identification de l'IA par le public.
Une analyse psychologique de la représentativité de l'IA peut également aider à comprendre une énigme découlant des quelques études qui ont porté sur la capacité des gens à détecter les visages de l'IA : Bien qu'une étude récente intitulé AI-synthesized faces are indistinguishable from real faces and more trustworthy ait montré que les gens étaient incapables de distinguer les visages de l'IA de ceux des humains, deux autres études : A study of the human perception of synthetic faces et On the realness of people who do not exist: The social processing of artificial faces vont plus loin et suggèrent que les gens pourraient suridentifier les visages de l'IA comme étant humains.
Comment expliquer cette énigme ? Les trois études ont utilisé l'algorithme StyleGAN2 de Nvidia, qui permet de créer des visages réalistes grâce à la synthèse d'images, mais ont varié dans la race des visages testés. Ces différences démographiques sont critiques car StyleGAN2 a été entraîné sur des visages principalement blancs (environ 69 % de blancs, environ 31 % pour toutes les autres races combinées), ce qui peut biaiser l'algorithme vers les régularités statistiques des visages blancs. Ce biais peut conduire à des visages IA blancs qui semblent particulièrement moyens (comme indiqué dans la figure 1) et donc, potentiellement, particulièrement réalistes.
StyleGAN2 est un réseau accusatoire génératif qui s'appuie sur StyleGAN avec plusieurs améliorations. Tout d'abord, la normalisation adaptative des instances est repensée et remplacée par une technique de normalisation appelée démodulation de poids. Deuxièmement, un schéma d'apprentissage amélioré, basé sur la croissance progressive, est introduit, ce qui permet d'atteindre le même objectif - l'apprentissage commence par se concentrer sur des images à faible résolution, puis passe progressivement à des résolutions de plus en plus élevées - sans modifier la topologie du réseau pendant l'apprentissage. En outre, de nouveaux types de régularisation tels que la régularisation non rigoureuse et la régularisation de la longueur du chemin sont proposés.
Conformément à cette théorie, les chercheurs qui suggèrent que les gens pourraient suridentifier les visages de l'IA comme étant humains ont trouvé des preuves préliminaires de l'hyperréalisme de l'IA dans la mesure où ils ont testé les visages blancs, bien que certains stimulis de Tucciarelli aient également été présélectionnés pour être particulièrement réalistes, ce qui les a orientés vers cette conclusion. Fait intrigant, Nightingale et Farid (AI-synthesized faces are indistinguishable from real faces and more trustworthy) ont également signalé plus d'erreurs pour la détection de visages IA blancs que pour la détection de visages IA non blancs.
Cependant, ils n'ont pas approfondi cette question. Si les visages de l'IA semblent plus réalistes pour les Blancs que pour les autres groupes, leur utilisation confondra les perceptions de la race avec les perceptions d'être « humain ». Ainsi, l'utilisation de visages StyleGAN2 populaires risque d'induire en erreur certains conclusions scientifiques à l’exemple de (Dawel et al. 2022) et peut même perpétuer les biais sociaux dans le monde réel, qu'il s'agisse d'influencer les élections ou de retrouver des enfants disparus.
La figure ci-dessus présente le cadre de codage qualitatif permettant de saisir les attributs que les participants ont déclaré utiliser lorsqu'ils ont jugé si les visages étaient humains ou IA. La taille de chaque segment indique le pourcentage de codes totaux capturés par chaque thème. Le cadre est composé de 21 thèmes principaux et de 20 sous-thèmes (par exemple, « yeux » est un sous-thème du thème des caractéristiques faciales spécifiques).
Les réponses pouvaient être codées dans plusieurs thèmes, et chaque réponse a donc été codée dans une moyenne de 2,29 thèmes. Par exemple, la réponse « Si les visages étaient trop symétriques et si les yeux avaient l'air faux » a été codée dans les thèmes « symétrie », « yeux » et « artificiel ». Au total, 546 codes ont été appliqués aux 239 réponses. Le fichier supplémentaire S9 comprend des exemples de citations pour chaque thème.
Les chercheurs constatent que les visages de personnes blanches de l'IA sont perçus comme hyperréels et que les observateurs sont trop confiants dans leur capacité à les détecter. En combinant la théorie psychologique avec une nouvelle approche basée sur les données et l'apprentissage automatique, l’étude fait progresser de manière significative la compréhension des raisons de l'hyperréalisme de l'IA. Plus précisément, ils ont pu mettre en évidence les attributs perceptifs qui distinguent avec précision les visages humains des visages artificiels et modéliser la manière dont les gens utilisent mal ces informations, expliquant ainsi une grande partie de la variance dans les jugements des humains sur l'intelligence artificielle.
L'identification de ces attributs constitue une base essentielle pour les futurs travaux psychophysiques détaillés visant à cartographier l'espace-visage de l'IA. Il est important de noter que les présents résultats peuvent être généralisés aux types d'images utilisées en ligne, car les visages d'IA sont contrôlés pour les artefacts d'image lorsqu'ils sont sélectionnés pour une utilisation dans le monde réel (par exemple, lorsqu'ils commettent une fraude). En outre, le filtrage des artefacts ne peut expliquer la spécificité blanche de l'hyperréalisme dans l’étude intitulé AI-synthesized faces are indistinguishable from real faces and more trustworthy de Nightingale et Farids (2022), car les mêmes critères de filtrage ont été appliqués à toutes les races de visages.
Les biais de l’IA : les réseaux GAN produisent-ils l’hyperréalisme ?
L’étude met en évidence deux biais distincts et critiques. Tout d'abord, les réseaux GAN, (generative adversarial networks ou réseaux antagonistes génératifs en français) sont biaisés en faveur des régularités statistiques de leurs entrées les plus courantes, ce qui, selon les chercheurs, produit l'hyperréalisme de l'IA. Bien qu’ils démontrent ce point dans le contexte des visages d'IA, l'idée fondamentale peut être généralisée à d'autres types importants de résultats d'IA, y compris le texte et les illustrations de ChatGPT et DALL-E. Les GAN constituent une classe d’algorithme introduite en 2014 par Goodfellow et al. permettant de générer des images avec un fort degré de réalisme en intelligence artificielle.
Un GAN est un model génératif où deux réseaux sont placés en compétition dans un scénario de théorie des jeux (un domaine des mathématiques qui s'intéresse aux interactions des choix d'individus, appelés joueurs qui sont conscients de l'existence de ces interactions). Le premier réseau est le générateur, il génère un échantillon (ex. une image), tandis que son adversaire, le discriminateur essaie de détecter si un échantillon est réel ou bien s'il est le résultat du générateur.
Deuxièmement, les chercheurs ont trouvé des preuves du biais racial blanc dans la formation algorithmique qui produit des différences raciales en présence de l'hyperréalisme de l'IA, avec des implications significatives pour l'utilisation des visages de l'IA en ligne et dans la science. Par le passé, des visages moins réalistes générés par ordinateur ont été utilisés comme substituts de visages humains lorsqu'il était inapproprié de le faire, et l'on craint qu'il en aille de même avec les visages d'IA, avec des implications pour l'inégalité.
Alors les chercheurs recommandent que les études utilisant des visages d'IA vérifient qu'ils sont perçus comme également naturels par toutes les races. Dans le même ordre d'idées, une question pressante est de savoir comment traiter les différences raciales dans les GAN. La théorie de l'espace-visage n'indique pas clairement s'il existe un seul espace-visage ou des espaces distincts pour les différents groupes démographiques.
Il est important de noter que, contrairement aux algorithmes standard de détection de l'IA (qui sont des « boîtes noires »), le présent travail fait connaître les attributs perceptuels qui permettent une détection précise de l'IA dans le cadre de l'apprentissage automatique. La précision humaine peut également être améliorée en formant les gens à utiliser les attributs de manière appropriée, bien que cette stratégie risque d'exacerber l'excès de confiance au fur et à mesure que les technologies progressent et que certains attributs deviennent obsolètes. Actuellement, la plupart des algorithmes ne produisent qu'une seule image de chaque identité, mais il est probable que l'on disposera bientôt de plusieurs images de produits d'IA.
Source : Psychological Science
Et vous ?
Les conclusions de cette étude sont-elles pertinentes ?
Comment les résultats de cette étude pourraient-ils être utilisés pour améliorer la technologie de reconnaissance faciale ?
Voir aussi :
Nvidia a mis au point une IA capable de générer des visages humains totalement crédibles, une menace pour l'identité en ligne ?
Le nouveau casque de Meta va suivre vos yeux et vos visages pour les publicités ciblées, donnant à Facebook plus d'informations que jamais sur vos interactions avec la publicité
Ce site montre des portraits de visages humains générés par une IA. Aucun d'entre eux n'est réel. Actualisez la page pour en voir un nouveau