Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Reconnaissance faciale : un algorithme accuse à tort un Afro-américain qui écope d'une garde à vue pour plus de 24 heures
Et de poursuites auxquelles l'ACLU demande à la justice de mettre un terme

Le , par Patrick Ruiz

92PARTAGES

9  0 

Robert Julian-Borchak Williams, un Afro-Américain, se retrouve à gérer des démêlés avec la justice parce qu’un algorithme de reconnaissance faciale a, par « erreur », fait correspondre sa photo avec une vidéo d’une caméra de sécurité. La police a laissé filtrer que « l’ordinateur a dû se tromper. » Pourtant, le présumé voleur sort d’une audience de mise en accusation qui pourrait donner suite à d’autres. L’Union américaine pour les libertés civiles (ACLU) est sur le dossier et demande un arrêt total des poursuites judiciaires.


Ce ne sera pas la première fois qu’un tiers se fasse arrêter pour un crime qu’il n’a pas commis. Néanmoins, pour ce qui est de la reconnaissance faciale, ce pourrait bien être le premier cas qui remonte jusqu’aux médias.

La technologie de reconnaissance faciale, lorsqu’on lui concède de pouvoir donner de bons résultats, est déjà problématique en ceci qu’elle peut être vue comme une intrusion à la vie privée. Dans la pratique, elle est surtout connue pour l’une des plus grosses tares qu’elle continue d’exhiber : les nombreux faux positifs. Des études tour à tour mises en ligne par l’ACLU et l’institut américain des normes et de la technologie (NIST) mettent en exergue le fait que les systèmes de reconnaissance faciale sont nettement plus susceptibles de générer des erreurs lorsqu'ils tentent de faire correspondre des images représentant des personnes dites de couleur. Dans les chiffres, ceux-ci sont plus précis pour ce qui est des opérations d’identification d’individus blancs, mais sont 10 à 100 fois plus susceptibles de générer des faux positifs pour ce qui est des visages de Noirs et d’Asiatiques. Le NIST a également mis en avant le fait que les systèmes développés aux États-Unis sont très peu performants face aux visages des Amérindiens. C’est en tout cas ce qui ressort de l’étude de l’institut américain des normes et de la technologie qui a porté sur les performances de 189 algorithmes mis sur pied par 99 développeurs. L’évaluation des logiciels s’est faite sur plus de 18 millions d’images appartenant à plus de 8 millions d’individus.

C’est de la non-prise en compte de ces éléments dont Robert Julian-Borchak Williams se retrouve victime. En effet, les données sont faussées à la base quand on sait que le logiciel de DataWorks Plus – le fournisseur de solution IA – intègre des algorithmes (d’entreprises en sous-traitance comme le Japonais Nec et l’Américain Rank One Computing) qui sont déjà tombés sous le coup de critiques du NIST en raison de biais raciaux évidents. De plus, DataWorks Plus reconnaît que les tests effectués sur les algorithmes pour attester de leur efficacité sont légers. « DataWorks ne mesure pas de façon formelle la précision ou le biais des systèmes. Nous sommes devenus des pseudo-experts de cette technologie », lance un responsable.


L’ACLU s’est saisie du cas et a porté plainte de la part de Robert Williams. « À chaque étape, la police de Detroit s’est comportée de façon inadéquate. Elle s'est appuyée sans réfléchir sur une technologie de reconnaissance faciale défectueuse et raciste sans prendre de mesures raisonnables pour vérifier les informations fournies ; ceci, dans le cadre d’une enquête bâclée et incomplète », allègue l’organisation de défense des libertés.

L'enquête a débuté lorsque cinq montres, d'une valeur d'environ 3800 dollars, ont été volées dans un magasin de luxe Shinola à Detroit en octobre 2018. Les enquêteurs ont examiné les images de sécurité et ont identifié un suspect : un homme apparemment noir portant une casquette de baseball et une veste sombre. En mars 2019, selon ce qui ressort de la plainte, la police de Detroit a procédé à une recherche par reconnaissance faciale en utilisant une image tirée des vidéos de surveillance. Cette recherche a permis de faire correspondre l'image à la photo du permis de conduire de M. Williams.

Le vol dont Williams est accusé a eu lieu en octobre 2018, et en mars 2019, une photo de vidéo de surveillance du magasin a été téléchargée sur la base de données de reconnaissance faciale de l'État du Michigan. Le téléchargement aurait débouché sur une série de correspondances photographiques fournies par la suite au sein d'un document qui soulignait pourtant qu'elles ne constituaient pas un motif d'arrestation. Néanmoins, elles ont conduit à l'inclusion de la photo de M. Williams dans une série d'autres qui ont été montrées à l'agent de sécurité du magasin. Ce dernier, qui selon l'ACLU n'a pas été témoin du vol, a identifié Williams comme étant le responsable de l'acte.


L'identification a conduit à l'arrestation de Williams devant son domicile en janvier. Il a ensuite été placé en garde à vue pendant 30 heures au total. Il rapporte de son échange avec les agents de police que l’un d’eux a déclaré que « l’ordinateur a dû se tromper » devant l’impossibilité d’établir sa culpabilité.


Bien que l’affaire Williams ait fait l’objet de rejet deux semaines après son arrestation, elle pourrait donner lieu à de futures audiences. Ce dernier pourrait à nouveau être accusé sur la base d’éléments de son dossier. En effet, souligne l’ACLU, l'échantillon d'ADN, la photo d'identité et les empreintes digitales de Williams y figurent et son arrestation est enregistrée. L’Union américaine pour les libertés civiles (ACLU) pour sa part demande un arrêt total des poursuites judiciaires.

Dans un souci d’encadrement, les fournisseurs de technologies de reconnaissance faciale en lien avec l’affaire entendent, pour ce qui les concerne, intégrer des moyens légaux supplémentaires au processus d’utilisation des outils qu’ils mettent à la disposition des forces de l’ordre. La police de Detroit restreint désormais l’usage de la technologie de reconnaissance faciale aux cas de crimes violents et d’invasions de domiciles.

Sources : NYT, Reuters, ACLU

Et vous ?

Que pensez-vous de l’utilisation de la reconnaissance faciale de façon générale ?
Est-ce une méthode qui a une quelconque utilité en matière de sécurité ?
Comment alignez-vous le cas Williams avec l'actuel contexte US fait de violences policières ?

Voir aussi :

Google obtient le rejet d'un procès concernant la reconnaissance faciale, le juge citant le manque de « préjudices concrets » infligés aux plaignants
Facebook rend open source le système de reconnaissance vocale Wav2letter++ et publie Flashlight, une bibliothèque d'apprentissage machine
Google ne vendra pas la technologie de reconnaissance faciale pour l'instant, avant d'aborder d'importantes questions de technologie et de politique
Une tête imprimée en 3D a pu tromper le système de reconnaissance faciale de plusieurs smartphones Android populaires lors d'un test
Reconnaissance faciale : Microsoft appelle à une régulation mondiale, avant que cette technologie ne devienne problématique au sein de la société

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de walfrat
Membre éprouvé https://www.developpez.com
Le 25/06/2020 à 14:31
Hormis le débat sur la reconnaissance faciale, je ne suis pas certain de comprendre l'exact problème.

La personne a été identifié par erreur par de la reconnaissance faciale. Le document fournissant la correspondance indique expressément que ce n'est pas une preuve à charge mais seulement un élément qui peuvent justifié une enquête plus approfondie, ce qui est exactement ce qu'est en train de faire la justice. Les policiers eux-même admettent que l'ordinateur a pu se tromper. Cela devrait donc déboucher rapidement sur une fin d'enquête et oui comme à son habitude, l'arrêt des poursuites peut-être lent mais il n'a pas été mis en prison pour ces deux semaines. Peut-être que ce n'est pas assez rapide pour certain mais ça me parait loin des scandales habituels.

Donc je ne comprend pas l'intérêt de l'article, un témoin aussi peut se tromper quand il pense reconnaître quelqu'un, et il peut aussi avoir plus de mal à distinguer correctement certaines communautés que d'autres et ce sans racisme, tout simplement parce que son cerveau n'est pas autant rôdé à distinguer leur traits physiques. C'est pour cela qu'un témoignage seul n'est pas aussi incriminant qu'une preuve ADN par exemple.
11  3 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 01/07/2020 à 13:15
Reconnaissance faciale : le chef de la police de Detroit admet un taux d’erreur de 96 %,
la police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie
Si la police de Détroit base son travail sur un logiciel qui donne des résultats faux dans 96% des cas, ce n'est plus un problème d'intelligence artificielle mais bien de... connerie humaine!
4  1 
Avatar de Cpt Anderson
Membre expérimenté https://www.developpez.com
Le 25/06/2020 à 17:33
Même l'Ai est raciste, c'est dire dans quel monde on vit ! Il faut vite monter rune association black e-live matter !
1  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 03/07/2020 à 7:06
c'est une IA qui a été entrainée avec le vilain dataset du MIT ça, à tous les coups !

1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 29/06/2020 à 14:57
Bien entendu, cette même IA n'a jamais fait d'erreur d'identification d'un vilain blanc, blond et yeux bleus???

A un moment donné, la connerie atteint son paroxysme et arrive à détruire les causes les plus humanistes du monde!

PS: J'ai un chien bicolor, noir et blanc. Pour les biens-pensants, est-ce que je dois le passer au cirage de couleur "noire" (ou faudrait-il dire "non-blanc", heu? Pas non plus, si on en croit les communicants de L'Oréal) au risque d'ouvrir une polémique "black face" ou le peindre en blanc au risque d'être traité de raciste parce que je nie la valeur de la couleur noire?
0  0 
Avatar de darklinux
Membre éclairé https://www.developpez.com
Le 01/07/2020 à 15:14
Voyons l ' algorithme est orienté et le datalake est volontairement petit , 96 % est tout sauf admissible
1  1 
Avatar de marsupial
Expert confirmé https://www.developpez.com
Le 01/07/2020 à 21:09
Citation Envoyé par Anselme45 Voir le message
Si la police de Détroit base son travail sur un logiciel qui donne des résultats faux dans 96% des cas, ce n'est plus un problème d'intelligence artificielle mais bien de... connerie humaine!
Il s'agit du même taux d'erreur qu'à Londres. Même fournisseur ?
0  1 
Avatar de Neckara
Inactif https://www.developpez.com
Le 02/07/2020 à 13:44
Oui enfin 96% d'erreurs ça ne veut rien dire.

C'est une correspondance 1 vs 1 ? Dans ce cas il suffit de faire l'inverse de ce que sort l'algorithme.
C'est une identification 1 vs N ? Dans ce cas, le taux d'erreur est très très bon.

Déjà, il faudrait retirer les cas où on recherche une personne qui n'est pas dans la base, en même temps c'est un peu logique que si la personne n'est pas dans la base, elle ne pourra pas être la personne la plus proche. Et au lieu de se contenter de la personne la plus proche, prendre les N plus proches, et là le taux d'erreur va diminuer de manière très significative.

Faut juste comprendre que ce n'est pas magique, on te sort des candidats probables, cela devrait grandement aider le travail de la Police, à elle de faire correctement son travail derrière. D'autant plus que j'imagine qu'ils utilisent des images de très faibles qualités, donc pas sûr qu'un humain ferait mieux.
0  1