Un groupe de chercheurs a mis au point un système d'IA capable de protéger les utilisateurs contre la reconnaissance faciale indésirable par des acteurs malveillants. Baptisé Chameleon, le modèle d'IA utilise une technologie spéciale de masquage pour générer un masque qui dissimule les visages dans les images sans affecter la qualité visuelle de l'image protégée. En outre, les chercheurs affirment que le modèle est optimisé en matière de ressources, ce qui le rend utilisable même avec une puissance de traitement limitée. Les chercheurs ont également fait part de leur intention de publier le code du modèle d'IA Chameleon prochainement.
L'IA pour lutter contre reconnaissance faciale indésirable et les fraudeurs
Les systèmes de reconnaissance faciale sont devenus omniprésents dans la vie quotidienne, qu'il s'agisse des caméras de police ou de la fonction de reconnaissance faciale des téléphones. Mais la numérisation non autorisée peut conduire les cybercriminels à collecter des images à des fins d'escroquerie, de fraude ou de harcèlement. Ils peuvent en outre constituer une base de données d'images qui seront utilisées pour le ciblage publicitaire et les cyberattaques.
Un groupe de chercheurs de l'Institut de Technologie de Géorgie (Georgia Tech) pensent que l'IA pourrait être la clé pour masquer les photos personnelles aux logiciels de reconnaissance faciale indésirables et aux fraudeurs, sans détruire la qualité de l'image. L'équipe a annoncé avoir mis au point un modèle d'IA appelé « Chameleon », qui est capable de produire « un masque unique et personnalisé de protection de la vie privée » pour les photos personnelles.
Le masque empêche les scanners faciaux indésirables de détecter le visage d'une personne. Chameleon fera en sorte que les scanners de reconnaissance faciale reconnaissent les photos comme étant celles d'une autre personne. Le modèle est présenté dans une étude publiée le 19 juillet dans la revue arXiv.
« Le partage de données et l'analyse préservant la vie privée comme Chameleon contribueront à faire progresser la gouvernance et l'adoption responsable de la technologie de l'IA et à stimuler la science et l'innovation responsables », a déclaré l'auteur principal de l'étude, Ling Liu, professeur de données et d'informatique alimentée par l'intelligence à l'école d'informatique de Georgia Tech. (Ling Liu a développé le modèle Chameleon avec d'autres chercheurs.)
Comment Chameleon fonctionne-t-il ?
Le fonctionnement de Chameleon repose sur la création d'un masque personnalisé de protection de la vie privée (P-3). Les utilisateurs soumettent quelques photos de leur visage et l'IA crée un masque sur mesure adapté à l'individu. Une fois appliqué, ce masque garantit que les systèmes de reconnaissance faciale ne détectent pas l'identité de l'utilisateur. Au lieu de cela, ils identifieront à tort les images protégées comme appartenant à quelqu'un d'autre.
Cette méthode innovante permet aux utilisateurs de Chameleon de partager leurs images en ligne sans craindre d'être la cible d'une reconnaissance faciale indésirable. Ling Liu et son équipe ont déclaré que le modèle Chameleon présente trois caractéristiques principales, notamment :
Technique de masquage personnalisée
L'une des principales caractéristiques de Chameleon est sa capacité à générer un seul masque P-3 pour toutes les photos du visage d'un utilisateur. Il s'agit d'une avancée significative par rapport aux modèles existants qui nécessitent des masques différents pour chaque image. La possibilité de créer un masque personnalisé sur la base d'un nombre limité de photos soumises par l'utilisateur améliore à la fois l'efficacité et l'efficience.
Préservation de la qualité visuelle
Selon les chercheurs, le modèle d'IA Chameleon met l'accent sur la préservation de la qualité visuelle des images originelles soumises par les utilisateurs. De nombreux modèles de masquage actuels entraînent des différences visuelles notables entre les photos originales et les photos masquées.
En revanche, Chameleon a démontré des performances supérieures en matière de préservation de la qualité de l'image, la rendant presque indiscernable de l'original. Cette caractéristique est cruciale pour les utilisateurs qui souhaitent partager leurs images sur les médias sociaux sans compromettre l'esthétique.
Protection robuste contre la reconnaissance faciale
Chameleon ne protège pas seulement les utilisateurs individuels, mais renforce également la sécurité globale. Le modèle a été testé par rapport à trois grands systèmes de protection contre la reconnaissance faciale et les a surpassés en matière de qualité visuelle et d'efficacité de la protection. Cette protection robuste est obtenue grâce à des algorithmes avancés qui garantissent que les masques P-3 résistent aux différentes techniques de reconnaissance faciale.
Potentielles applications du modèle d'IA Chameleon
Chameleon se concentre sur les images personnelles, mais l'équipe envisage des applications plus larges. L'une d'entre elles consisterait à empêcher que des images soient utilisées sans consentement pour entraîner l'IA générative. Cela permettrait de garantir que les individus conservent le contrôle de leurs données personnelles, en particulier à une époque où les systèmes d'IA s'appuient de plus en plus sur de vastes ensembles de données pour l'entraînement.
L'équipe de recherche prévoit de publier son code sur GitHub. Cette initiative permettra aux développeurs et aux chercheurs du monde entier de s'appuyer sur leurs travaux, ce qui favorisera l'innovation dans le domaine des technologies de préservation de la vie privée. En rendant Chameleon accessible, l'équipe espère encourager les efforts de collaboration pour améliorer la sécurité numérique, à l'heure où l'IA générative introduit de nouveaux risques.
Analyse critique de Chameleon
En somme, le modèle Chameleon créé par les chercheurs de Georgia Tech utilise l'IA pour appliquer des modifications à l'image qui empêchent d'autres IA d'utiliser efficacement les données de l'image sans avoir un impact négatif trop important sur l'image elle-même du point de vue de la reconnaissance humaine. Cette application particulière utilise d'abord l'IA pour reconnaître un visage, puis crée un « masque » qu'elle appliquera toujours au visage.
Le masque modifie suffisamment d'éléments sur l'image pour que les systèmes de reconnaissance faciale ne reconnaissent pas le visage d'origine, alors que la reconnaissance visuelle humaine le reconnaît. Toutefois, le modèle n'est pas parfait. D'après les exemples de photos fournis, il semble qu'il y ait de légères modifications perceptibles sur la photo et qu'il s'agisse d'une modification des pixels cachés et des métadonnées (un peu comme un filigrane).
Il faudra qu'il soit bien meilleur que cela pour que quelqu'un l'adopte. Les utilisateurs ne voudront pas ajouter un motif moiré étrange à ses selfies Instagram ou autre. En outre, d'autres critiquent l'idée en lui-même. « Je ne suis pas sûr qu'entrer dans un monde où un modèle d'IA combat un autre modèle d'IA, gaspillant des tonnes de ressources, dans l'espoir d'annihiler les résultats des autres, soit un si grand objectif que cela », peut-on lire dans les commentaires.
Source : rapport de l'étude
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de Chameleon et de ses caractéristiques ?
Selon vous, le modèle d'IA Chameleon est-il utile ? Sera-t-il largement adopté ?
Selon vous, quels sont les risques liés à l'utilisation du modèle d'IA Chameleon ?
Voir aussi
La NFL annonce l'installation d'un dispositif de reconnaissance faciale sur tous ses 32 stades, après des cas d'utilisation montrant des violations des droits de l'Homme par cette technologie
Microsoft interdit aux services de police américains d'utiliser son outil IA pour la reconnaissance faciale, une semaine après qu'un fabricant de produits technologiques et d'armes a annoncé utiliser GPT-4
Une erreur dans un distributeur automatique révèle l'utilisation secrète d'une technologie de reconnaissance faciale sur les étudiants, l'université de Waterloo a promis de retirer les machines
Chameleon : un modèle d'IA capable de vous protéger de la reconnaissance faciale grâce à un masque numérique sophistiqué,
L'outil vise à empêcher la formation de l'IA générative sur des images personnelles
Chameleon : un modèle d'IA capable de vous protéger de la reconnaissance faciale grâce à un masque numérique sophistiqué,
L'outil vise à empêcher la formation de l'IA générative sur des images personnelles
Le , par Mathis Lucas
Une erreur dans cette actualité ? Signalez-nous-la !