
Dans un cas des cas cités comme dans l’autre, une intelligence artificielle s’appuie sur des informations extraites d’une base de données de visages pour permettre aux autorités de pincer un individu. Une récente publication d’une équipe universitaire montre qu’on peut aller encore plus loin avec ces systèmes. L’étude de chercheurs de l'université américaine privée à but non lucratif de Harrisburg a de quoi plonger les lecteurs dans l’univers du film américain de science fiction Minority Report. En effet, sa conclusion de façon ramassée est qu’un logiciel peut prédire qu’un tiers sera criminel avec une précision de 80 % et sans biais racial, ce, rien qu’en s’appuyant sur sa photo. Le communiqué, qui avait commencé à être partagé sur Twitter, a fait l’objet de suppression du site web de l’institution en raison d’un afflux important de contradicteurs.
« L'étude a été retirée du site web à la demande de la faculté impliquée dans la recherche. Elle travaille sur une mise à jour du document afin de répondre aux préoccupations soulevées », indique la nouvelle mouture du communiqué.
L’étude de l’université d’Harrisburg n’est pas la première dans le genre. Elle fait suite à celle d’une université chinoise. En 2016, une équipe de recherche de la Jiao Tong University de Shanghai publiait son étude liant criminalité et caractéristiques faciales des individus. Dans les chiffres, l’étude rapporte que le système est capable de détecter avec une précision de 90 % qui est le plus susceptible d’être un criminel, ce, sans biais.
La phase d’entraînement de l’IA de l’université chinoise s’est faite avec plus de mille clichés d’individus tirés de cartes d’identité nationales dont sept cents appartenaient à des criminels reconnus. Il est peut-être là le problème avec ces systèmes. En effet, une étude de chercheurs du MIT montre que la création d’une intelligence artificielle psychopathe tient à une chose essentielle : la nourrir d’images ultras violentes lors du processus d’entraînement. C’est une illustration du problème de biais des données fournies aux IA qui semble être la raison profonde de la controverse que l’on observe. Si l’on inverse le regard sur les taux de précision, il faut dire qu’il y a 10 à 20 % de faux positifs en fonction des résultats de l’université auxquels on fait allusion. C’est un problème quand on sait que cela représente un paquet de personnes susceptibles d’être accusées à tort comme l'ont été des membres du Congrès des USA par une IA.
Sources : Twitter, Université de Jiao Tong
Et vous ?


Voir aussi :




