Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Reconnaissance faciale : le chef de la police de Detroit admet un taux d'erreur de 96 %
La police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie

Le , par Nancy Rey

19PARTAGES

10  0 
La police de Detroit a utilisé une technologie de reconnaissance faciale très peu fiable, selon les propres statistiques du département de police de Detroit. L'utilisation de cette technologie a attiré l'attention nationale la semaine dernière après que l'union américaine des libertés civiles (UCLA) et le New York Times aient mis en lumière le cas de Robert Julian-Borchak Williams, un homme qui a été arrêté à tort à cause de cette technologie.

Lors d'une réunion publique la semaine dernière, le chef de la police de Detroit, James Craig, a admis que la technologie, développée par une société appelée DataWorks Plus, ne permettait presque jamais de retrouver une correspondance directe et identifiait presque toujours mal les personnes. « Si nous utilisions le logiciel uniquement pour identifier les sujets, nous ne pourrions pas résoudre les affaires dans 95 à 97 % des cas. Si nous utilisions la technologie seule, pour identifier quelqu'un, je dirais que dans 96 % des cas, il y aurait une erreur d'identification », a-t-il déclaré.


Todd Pastorini, directeur général de DataWorks Plus, a déclaré que l’entreprise ne tient pas de statistiques sur la précision du logiciel dans le monde réel, et qu'elle ne donne pas d'instructions spécifiques aux forces de l'ordre sur la manière d'utiliser le logiciel. « Il n'y a pas de statistiques pour cela. La question est la qualité des sondes utilisées. Je suis très réticent par rapport au dernier article du New York Times qui a été mal cité ou légèrement déformé en fonction du contexte utilisé. Vous savez peut-être comment fonctionne une pelle : vous la plantez dans le sol pour ramasser de la terre et vous l'utilisez peut-être comme une arme. La reconnaissance faciale a été utilisée comme une arme par les médias dans une certaine mesure. Je comprends le commentaire du chef de la police, mais malheureusement, beaucoup de gens ne le comprennent pas ». Pastorini a comparé le logiciel de DataWorks Plus à des systèmes automatisés d'identification d'empreintes digitales, où des dizaines ou des centaines de correspondances potentielles sont renvoyées.

Le résultat est que les policiers prennent finalement la décision d'interroger et d'enquêter sur les gens en se basant sur le retour du logiciel et sur le jugement d'un inspecteur. Cela signifie que des personnes qui n'ont peut-être rien à voir avec un crime sont finalement interrogées et font l'objet d'une enquête par la police. À Detroit, cela signifie, presque exclusivement, des personnes noires.


Des recherches ont montré que la précision des logiciels de reconnaissance faciale varie en fonction de la race du sujet, les suspects noirs étant moins souvent identifiés que les blancs. Les propres statistiques du département de la police de Detroit montrent que la technologie est utilisée presque exclusivement sur des suspects noirs.
Selon les données de la police, 68 des 70 recherches de reconnaissance faciale ont été effectuées sur des suspects noirs, tandis que deux d'entre eux avaient un code racial "U" - probablement l'abréviation de " unknown ". Ces photos ont été tirées en grande partie des médias sociaux (31 cas sur 70) ou d'une caméra de sécurité (18 cas sur 70).

Plusieurs villes ont interdit à la police d'utiliser un logiciel de reconnaissance faciale, qui présente des problèmes bien connus et de nombreux faux positifs également. Detroit, cependant, a un débat très public en 2019 sur l'utilisation de la reconnaissance faciale, et a plutôt décidé de réglementer son utilisation plutôt que de l'interdire complètement. À la fin de l'année dernière, la ville a adopté une politique qui interdit l'utilisation de la reconnaissance faciale pour surveiller la population à l'aide d'une caméra ou d'un appareil vidéo, interdit son utilisation sur les vidéos en direct et enregistrées, et restreint, mais n'interdit pas son utilisation lors des manifestations. Selon cette politique, le logiciel doit être utilisé uniquement sur une image fixe d'un individu et ne peut être utilisé que dans le cadre d'une enquête criminelle en cours. Le logiciel vérifie les images dans une base de données de photos de l'État, qui comprend des images de photos d'identité judiciaire. Dans le cadre de cette réglementation, le service de police est tenu de publier des rapports hebdomadaires sur l'utilisation de cette technologie.

Julian-Borchak Williams a été arrêté avant que la réglementation n'entre en vigueur. Craig a déclaré lors de la réunion que les données transmises par le système de reconnaissance faciale de DataWorks étaient « une vidéo de qualité horrible. Elle était granuleuse... Elle n'aurait jamais pu être diffusée dans le cadre de la nouvelle politique... Si nous ne pouvons pas obtenir une bonne image, nous ne la transmettrons pas aux inspecteurs ».

Craig et son collègue, le capitaine Ariq Tosqui, ont déclaré qu'ils veulent continuer à utiliser la reconnaissance faciale parce qu'ils disent qu'elle peut être un outil pour aider les enquêteurs même si elle ne conduit pas souvent à une arrestation. Mais même lorsqu'une personne n'est pas arrêtée à tort, son identification erronée par reconnaissance faciale peut souvent conduire un enquêteur à l'interroger, ce qui est au mieux un inconvénient et au pire une situation potentiellement mortelle. Selon Tosqui, cette technologie a été utilisée dans 185 affaires au total au fil des ans. Dans la majorité des cas, l'inspecteur a déclaré que le logiciel n'était pas utile.

L'ACLU a demandé au département de police de Detroit et à d'autres services de police de cesser d'utiliser la technologie de reconnaissance faciale pour les enquêtes, compte tenu de son taux d'erreur élevé et de son impact sur la disparité raciale. Ces derniers mois, un nouveau mouvement a été lancé par les membres du conseil municipal de Detroit pour interdire l'utilisation de cette technologie. Le conseil municipal de Boston a voté la semaine dernière l'interdiction de l'utilisation de la technologie de reconnaissance faciale.

Sources : Rapport DPD, Rapport de recherche Face Recognition Vendor Test, Rapport de réunion conseil municipal de Detroit

Et vous ?

Que pensez-vous de l’utilisation de la reconnaissance faciale de façon générale ?
Est-ce une méthode qui a une quelconque utilité en matière de sécurité ?

Voir aussi :

Reconnaissance faciale : un algorithme accuse à tort un Afro-américain qui écope d'une garde à vue pour plus de 24 heures, et de poursuites auxquelles l'ACLU demande à la justice de mettre un terme

Google ne vendra pas la technologie de reconnaissance faciale pour l'instant, avant d'aborder d'importantes questions de technologie et de politique

Une tête imprimée en 3D a pu tromper le système de reconnaissance faciale de plusieurs smartphones Android populaires lors d'un test

Reconnaissance faciale*: Microsoft appelle à une régulation mondiale, avant que cette technologie ne devienne problématique au sein de la société

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 01/07/2020 à 13:15
Reconnaissance faciale : le chef de la police de Detroit admet un taux d’erreur de 96 %,
la police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie
Si la police de Détroit base son travail sur un logiciel qui donne des résultats faux dans 96% des cas, ce n'est plus un problème d'intelligence artificielle mais bien de... connerie humaine!
3  1 
Avatar de darklinux
Membre éclairé https://www.developpez.com
Le 01/07/2020 à 15:14
Voyons l ' algorithme est orienté et le datalake est volontairement petit , 96 % est tout sauf admissible
1  1 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 03/07/2020 à 7:06
c'est une IA qui a été entrainée avec le vilain dataset du MIT ça, à tous les coups !

0  0 
Avatar de marsupial
Expert confirmé https://www.developpez.com
Le 01/07/2020 à 21:09
Citation Envoyé par Anselme45 Voir le message
Si la police de Détroit base son travail sur un logiciel qui donne des résultats faux dans 96% des cas, ce n'est plus un problème d'intelligence artificielle mais bien de... connerie humaine!
Il s'agit du même taux d'erreur qu'à Londres. Même fournisseur ?
0  1 
Avatar de Neckara
Expert éminent sénior https://www.developpez.com
Le 02/07/2020 à 13:44
Oui enfin 96% d'erreurs ça ne veut rien dire.

C'est une correspondance 1 vs 1 ? Dans ce cas il suffit de faire l'inverse de ce que sort l'algorithme.
C'est une identification 1 vs N ? Dans ce cas, le taux d'erreur est très très bon.

Déjà, il faudrait retirer les cas où on recherche une personne qui n'est pas dans la base, en même temps c'est un peu logique que si la personne n'est pas dans la base, elle ne pourra pas être la personne la plus proche. Et au lieu de se contenter de la personne la plus proche, prendre les N plus proches, et là le taux d'erreur va diminuer de manière très significative.

Faut juste comprendre que ce n'est pas magique, on te sort des candidats probables, cela devrait grandement aider le travail de la Police, à elle de faire correctement son travail derrière. D'autant plus que j'imagine qu'ils utilisent des images de très faibles qualités, donc pas sûr qu'un humain ferait mieux.
0  1