Repérer un individu dans une foule de cinquante à soixante mille personnes est le genre de prouesse que les forces de l’ordre sont capables de réaliser dans des pays où l’on fait un usage extensif des systèmes de reconnaissance faciale. Le cas Ao, suspect d’implication dans des crimes économiques et inscrit sur un système national en ligne répertoriant les personnes recherchées en Chine, en est une illustration. Des systèmes plus récents relèguent même le port de masque au rang d’artifices inutiles. Autrement dit, en arborer un n’empêche pas d’être reconnu.
Dans un cas des cas cités comme dans l’autre, une intelligence artificielle s’appuie sur des informations extraites d’une base de données de visages pour permettre aux autorités de pincer un individu. Une récente publication d’une équipe universitaire montre qu’on peut aller encore plus loin avec ces systèmes. L’étude de chercheurs de l'université américaine privée à but non lucratif de Harrisburg a de quoi plonger les lecteurs dans l’univers du film américain de science fiction Minority Report. En effet, sa conclusion de façon ramassée est qu’un logiciel peut prédire qu’un tiers sera criminel avec une précision de 80 % et sans biais racial, ce, rien qu’en s’appuyant sur sa photo. Le communiqué, qui avait commencé à être partagé sur Twitter, a fait l’objet de suppression du site web de l’institution en raison d’un afflux important de contradicteurs.
« L'étude a été retirée du site web à la demande de la faculté impliquée dans la recherche. Elle travaille sur une mise à jour du document afin de répondre aux préoccupations soulevées », indique la nouvelle mouture du communiqué.
L’étude de l’université d’Harrisburg n’est pas la première dans le genre. Elle fait suite à celle d’une université chinoise. En 2016, une équipe de recherche de la Jiao Tong University de Shanghai publiait son étude liant criminalité et caractéristiques faciales des individus. Dans les chiffres, l’étude rapporte que le système est capable de détecter avec une précision de 90 % qui est le plus susceptible d’être un criminel, ce, sans biais.
La phase d’entraînement de l’IA de l’université chinoise s’est faite avec plus de mille clichés d’individus tirés de cartes d’identité nationales dont sept cents appartenaient à des criminels reconnus. Il est peut-être là le problème avec ces systèmes. En effet, une étude de chercheurs du MIT montre que la création d’une intelligence artificielle psychopathe tient à une chose essentielle : la nourrir d’images ultras violentes lors du processus d’entraînement. C’est une illustration du problème de biais des données fournies aux IA qui semble être la raison profonde de la controverse que l’on observe. Si l’on inverse le regard sur les taux de précision, il faut dire qu’il y a 10 à 20 % de faux positifs en fonction des résultats de l’université auxquels on fait allusion. C’est un problème quand on sait que cela représente un paquet de personnes susceptibles d’être accusées à tort comme l'ont été des membres du Congrès des USA par une IA.
Sources : Twitter, Université de Jiao Tong
Et vous ?
Un logiciel peut-il prédire si quelqu’un est susceptible d’être un criminel sur la base de sa photo ?
Pourquoi l’utilisation de l’intelligence artificielle peut-elle ne pas être pertinente dans la recherche de solutions à ce type de problématiques ?
Voir aussi :
Chine : le système de crédit social, comme une science-fiction dystopique, est en marche, et fait déjà des victimes
La police chinoise utilise le big data pour des arrestations préventives dans la région du Xinjiang, d'après l'association Human Rights Watch
Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ?
À Londres, la police teste une technologie de reconnaissance faciale pour retrouver des suspects : les populations entre approbation et condamnation
Espagne : la police s'appuie sur l'IA pour débusquer les fausses déclarations de vol, VeriPol dispose d'un taux de précision de 83 %
L'IA peut-elle prédire qu'un tiers sera criminel sur la base d'une photo ? Oui, avec une précision de 80 % et sans biais racial, selon une étude
Retirée d'Internet en raison de la controverse
L'IA peut-elle prédire qu'un tiers sera criminel sur la base d'une photo ? Oui, avec une précision de 80 % et sans biais racial, selon une étude
Retirée d'Internet en raison de la controverse
Le , par Patrick Ruiz
Une erreur dans cette actualité ? Signalez-nous-la !