Une enquête du Washington Post a révélé que les forces de l'ordre à travers les États-Unis utilisent à mauvais escient des logiciels de reconnaissance faciale alimentés par l'IA, ce qui conduit à des arrestations injustifiées sans preuve corroborante. L'enquête a révélé que 15 des 23 services de police ont examiné des suspects arrêtés en se basant uniquement sur les correspondances de l'IA, souvent en contradiction avec leurs propres politiques exigeant des preuves indépendantes.
Dans certains cas, la police a considéré les suggestions de l'IA comme définitives, un rapport citant un résultat de l'IA non corroboré comme une "correspondance à 100 %". Cette mauvaise utilisation de la technologie a entraîné au moins huit arrestations injustifiées, dont celle de Christopher Gatlin, qui a mis plus de deux ans à se disculper après avoir été mal identifié. Un autre cas, en 2023, la police de Louisiane se serait appuyée sur une fausse correspondance de reconnaissance faciale pour obtenir des mandats d'arrêt contre un homme noir pour des vols qu'il n'a pas commis. Randal Reid, 28 ans, est resté en prison pendant près d'une semaine après que la fausse correspondance ait conduit à son arrestation.
L'article met en évidence des problèmes systémiques dans les pratiques policières, comme le fait de ne pas vérifier les alibis, d'ignorer les preuves contradictoires et de s'appuyer sur des déclarations de témoins problématiques. Ces manquements ont eu des conséquences personnelles et financières importantes pour les personnes arrêtées à tort, notamment la perte d'emploi, des relations brisées et des traumatismes pour leurs familles. Certains services de police ont été contraints de verser des indemnités à la suite de ces arrestations injustifiées, mais l'impact sur les personnes concernées a été profond et leur a laissé une peur durable des forces de l'ordre.
Voici les principaux enseignements de l'enquête :
- La technologie de reconnaissance faciale est utilisée par la police comme un raccourci pour arrêter des suspects sans preuves indépendantes, souvent en contradiction avec les politiques internes.
- Au moins huit personnes ont été arrêtées à tort aux États-Unis en raison d'une erreur de reconnaissance faciale due à l'IA, et toutes les affaires ont finalement été classées.
- Les erreurs d'enquête les plus courantes consistent à ne pas vérifier les alibis, à ignorer les preuves contradictoires et à s'appuyer sur des déclarations de témoins problématiques.
- Les arrestations injustifiées ont eu des conséquences personnelles importantes pour les personnes concernées, notamment des difficultés financières et des traumatismes psychologiques.
Ce rapport révèle pourquoi la technologie de reconnaissance faciale par IA est très critiquée. Par exemple, en 2019, Ed Bridges, un résident de Cardiff, a porté plainte contre la police, alléguant que le fait de se faire scanner le visage en 2017 et 2018 constituait une violation de ses droits légaux. La police du Pays de Galles a commencé son utilisation expérimentale de la technologie de reconnaissance faciale automatisée en 2017, en déployant ouvertement un système appelé AFR Locate lors de plusieurs dizaines d'événements majeurs tels que des matchs de football. La police a comparé les scans à des listes de surveillance d'individus connus afin d'identifier les personnes recherchées par la police, faisant l'objet d'un mandat d'arrêt ouvert ou étant d'une autre manière des personnes d'intérêt.
En 2020, un tribunal a décidé que les essais de la police concernant la technologie de reconnaissance faciale enfreignaient les lois sur la vie privée. La Cour d'appel a statué que l'utilisation de systèmes de reconnaissance faciale automatique avait injustement porté atteinte au droit à la vie privée du plaignant nommé Ed Bridges. Les juges ont ajouté qu'il y avait des problèmes concernant la manière dont les données personnelles étaient traitées, et ont déclaré que les essais devraient être arrêtés pour le moment.
Un autre rapport en 2023 a révélé que les policiers n’étaient pas bien informés sur les technologies d’IA qu’ils utilisaient, comme la reconnaissance faciale et la détection des coups de feu, mais qu’ils les appréciaient pour leur efficacité. L’étude a aussi révélé que les policiers craignaient que l’IA puisse affecter la confiance entre eux et les citoyens.
L'enquête du Washington Post confirme donc les problèmes liés à la technologie de reconnaissance faciale et incite à une meilleure réglementation.
Source : Une enquête du Washington Post
Et vous ?
Pensez-vous que cette enquête est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Microsoft interdit aux services de police américains d'utiliser son outil IA pour la reconnaissance faciale. Une semaine après qu'un fabricant de produits technologiques et d'armes a annoncé utiliser GPT-4
La police de New York a dépensé des millions pour les services d'une entreprise tech prétendant pouvoir utiliser l'IA, pour surveiller les réseaux sociaux et prédire qui seront les futurs criminels
L'utilisation de la technologie de reconnaissance faciale ne répond pas aux normes éthiques et légales : Trois cas d'utilisation ont montré une violation flagrante des droits de l'homme