IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Arrêtés par l'IA : quand la police ignore les normes après les correspondances de reconnaissance faciale par l'IA
Toutes les personnes arrêtées à tort subissent d'énormes préjudices

Le , par Jade Emy

9PARTAGES

5  0 
Un nouveau rapport révèle les conséquences des erreurs quand la police ignore les normes après des tests de reconnaissance faciale par l'IA. Le rapport montre que toutes les personnes arrêtées à tort subissent d'énormes préjudices, comme la perte de leur emploi et de leurs relations.

Une enquête du Washington Post a révélé que les forces de l'ordre à travers les États-Unis utilisent à mauvais escient des logiciels de reconnaissance faciale alimentés par l'IA, ce qui conduit à des arrestations injustifiées sans preuve corroborante. L'enquête a révélé que 15 des 23 services de police ont examiné des suspects arrêtés en se basant uniquement sur les correspondances de l'IA, souvent en contradiction avec leurs propres politiques exigeant des preuves indépendantes.

Dans certains cas, la police a considéré les suggestions de l'IA comme définitives, un rapport citant un résultat de l'IA non corroboré comme une "correspondance à 100 %". Cette mauvaise utilisation de la technologie a entraîné au moins huit arrestations injustifiées, dont celle de Christopher Gatlin, qui a mis plus de deux ans à se disculper après avoir été mal identifié. Un autre cas, en 2023, la police de Louisiane se serait appuyée sur une fausse correspondance de reconnaissance faciale pour obtenir des mandats d'arrêt contre un homme noir pour des vols qu'il n'a pas commis. Randal Reid, 28 ans, est resté en prison pendant près d'une semaine après que la fausse correspondance ait conduit à son arrestation.


L'article met en évidence des problèmes systémiques dans les pratiques policières, comme le fait de ne pas vérifier les alibis, d'ignorer les preuves contradictoires et de s'appuyer sur des déclarations de témoins problématiques. Ces manquements ont eu des conséquences personnelles et financières importantes pour les personnes arrêtées à tort, notamment la perte d'emploi, des relations brisées et des traumatismes pour leurs familles. Certains services de police ont été contraints de verser des indemnités à la suite de ces arrestations injustifiées, mais l'impact sur les personnes concernées a été profond et leur a laissé une peur durable des forces de l'ordre.

Voici les principaux enseignements de l'enquête :

  • La technologie de reconnaissance faciale est utilisée par la police comme un raccourci pour arrêter des suspects sans preuves indépendantes, souvent en contradiction avec les politiques internes.

  • Au moins huit personnes ont été arrêtées à tort aux États-Unis en raison d'une erreur de reconnaissance faciale due à l'IA, et toutes les affaires ont finalement été classées.

  • Les erreurs d'enquête les plus courantes consistent à ne pas vérifier les alibis, à ignorer les preuves contradictoires et à s'appuyer sur des déclarations de témoins problématiques.

  • Les arrestations injustifiées ont eu des conséquences personnelles importantes pour les personnes concernées, notamment des difficultés financières et des traumatismes psychologiques.



Ce rapport révèle pourquoi la technologie de reconnaissance faciale par IA est très critiquée. Par exemple, en 2019, Ed Bridges, un résident de Cardiff, a porté plainte contre la police, alléguant que le fait de se faire scanner le visage en 2017 et 2018 constituait une violation de ses droits légaux. La police du Pays de Galles a commencé son utilisation expérimentale de la technologie de reconnaissance faciale automatisée en 2017, en déployant ouvertement un système appelé AFR Locate lors de plusieurs dizaines d'événements majeurs tels que des matchs de football. La police a comparé les scans à des listes de surveillance d'individus connus afin d'identifier les personnes recherchées par la police, faisant l'objet d'un mandat d'arrêt ouvert ou étant d'une autre manière des personnes d'intérêt.

En 2020, un tribunal a décidé que les essais de la police concernant la technologie de reconnaissance faciale enfreignaient les lois sur la vie privée. La Cour d'appel a statué que l'utilisation de systèmes de reconnaissance faciale automatique avait injustement porté atteinte au droit à la vie privée du plaignant nommé Ed Bridges. Les juges ont ajouté qu'il y avait des problèmes concernant la manière dont les données personnelles étaient traitées, et ont déclaré que les essais devraient être arrêtés pour le moment.

Un autre rapport en 2023 a révélé que les policiers n’étaient pas bien informés sur les technologies d’IA qu’ils utilisaient, comme la reconnaissance faciale et la détection des coups de feu, mais qu’ils les appréciaient pour leur efficacité. L’étude a aussi révélé que les policiers craignaient que l’IA puisse affecter la confiance entre eux et les citoyens.

L'enquête du Washington Post confirme donc les problèmes liés à la technologie de reconnaissance faciale et incite à une meilleure réglementation.

Source : Une enquête du Washington Post

Et vous ?

Pensez-vous que cette enquête est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Microsoft interdit aux services de police américains d'utiliser son outil IA pour la reconnaissance faciale. Une semaine après qu'un fabricant de produits technologiques et d'armes a annoncé utiliser GPT-4

La police de New York a dépensé des millions pour les services d'une entreprise tech prétendant pouvoir utiliser l'IA, pour surveiller les réseaux sociaux et prédire qui seront les futurs criminels

L'utilisation de la technologie de reconnaissance faciale ne répond pas aux normes éthiques et légales : Trois cas d'utilisation ont montré une violation flagrante des droits de l'homme

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mister Nono
Membre chevronné https://www.developpez.com
Le 20/01/2025 à 17:28
Citation Envoyé par nicopulse Voir le message
Des hommes BLANCS sont aussi embarqués et embastillés par erreur à cause de ce système, et même sans.

Merci de cesser ce racialisme / racisme.
Pourquoi dès qu'une personne utilise les mots noirs, gris, jaunes, etc... elle est qualifiée de raciste ?

Un jour, on a interdit l'utilisation des mots master et slave en informatique...

Et il a bien d'autres exemples de ce type.

Arrêtons de toujours stigmatiser les gens. Tout cela mène à la censure et à l'auto-censure. Apprenons la tolérance pour un monde plus beau...

PS : Il va falloir faire appel à l'IA pour trouver d'autres expressions que blanc, jaune, gris, noir, master, slave, etc... A force de vouloir tout censurer et de tout vouloir ramener à soit sans aucune discussion possible, on va converger vers une unité fade et insipide, inintéressante et pauvre (oh zut, "pauvre" est peut-être un mot interdit ) sans cette richesse et cette couleur que peut donner l'homme à la vie communautaire (oh pardon, "homme" est peut-être un mot interdit en opposition avec "femme" qui est peut-être un mot interdit en opposition à "homme" qui est peut-être un mot interdit... ).
1  1