IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une étude affirme que les logiciels de police prédictive ne parviennent pas à prédire les crimes
Et relance le débat sur l'efficacité des algorithmes de prédiction de la criminalité

Le , par Mathis Lucas

15PARTAGES

6  0 
Une nouvelle étude suggère que le recours aux algorithmes de prédiction pourrait n'être qu'une perte de temps. Le rapport de l'étude souligne que les prédictions de crimes générées par ces logiciels correspondent rarement aux crimes signalés. Dans un cas spécifique, l'équipe de recherche a remarqué que les prédictions faites par logiciel utilisé par la police de Plainfield, dans le New Jersey, ne pouvaient être considérées comme justes que dans 0,5 % des cas. Les prédictions concernant les vols ou les agressions graves susceptibles de se produire avaient un taux de réussite de 0,6 % et les prédictions de cambriolage avaient un taux de réussite de 0,1 %.

L'étude suggère en réalité que les algorithmes de prédiction utilisés par la police ne sont pas plus aptes à prédire l'avenir qu'une boule de cristal. En effet, depuis des années, les policiers tentent d'utiliser l'analyse de données et le big data pour mener des enquêtes plus efficaces. Cela a créé un marché de plusieurs milliards de dollars pour certaines entreprises et donné naissance au concept de "police prédictive". Selon les acteurs du milieu, la police prédictive utilise la collecte et l'analyse de données pour tenter de prédire où et quand les crimes vont se produire. Cependant, l'étude suggère qu'il s'agit probablement d'une énorme perte de temps.

La police prédictive a connu une grande popularité auprès des services de police de tout le pays. Malheureusement, bien que certains policiers ne jurent que par elle, il n'y a pas toujours eu beaucoup de preuves que cette technologie fonctionne vraiment bien. L'étude, qui a été menée conjointement par The Markup et Wired, suggère que pour la ville de Plainfield, dans l'État du New Jersey, la police prédictive a été un gigantesque et coûteux gâchis, qui n'a produit pratiquement aucun résultat utile. L'équipe de recherche a étudié spécifiquement le logiciel de police prédictive connu sous le nom de Geolitica, vendu par une entreprise américaine du même nom.


L'entreprise, créée en 2012, était auparavant connue sous le nom de PredPol, mais a procédé à un changement de marque en 2021. Selon la description du produit, le logiciel de police prédictif Geolitica ingère les données des rapports d'incidents criminels et génère des prédictions quotidiennes sur les lieux et les heures où les crimes sont les plus susceptibles de se produire. L'équipe a examiné 23 631 prédictions de Geolitica entre le 25 février et le 18 décembre 2018 pour la police de Plainfield. Mais selon l'équipe, chaque prédiction analysée indiquait qu'un type de crime était susceptible de se produire dans un endroit non patrouillé par la police de Plainfield.

En outre, pendant cette période, le logiciel n'avait fait des prédictions justes que dans "moins d'un demi pour cent des cas". Le capitaine David Guarino, du service de police de Plainfield, semble avoir été assez direct quant aux lacunes du logiciel Geolitica. Il a déclaré à l'équipe : « pourquoi avons-nous fait appel à PredPol ? Je suppose que nous voulions être plus efficaces dans la lutte contre la criminalité. Et le fait de pouvoir prédire où nous devrions être nous aiderait à y parvenir. Je ne sais pas si c'est ce qu'il a fait. Je ne crois pas que nous l'ayons vraiment utilisé très souvent, voire pas du tout. C'est pourquoi nous avons fini par nous en débarrasser ».

Des études ont souligné au fil des ans les nombreux problèmes des logiciels de police prédictive. Selon les chercheurs, l'un des défauts fondamentaux des algorithmes prédictifs est qu'ils reposent sur un raisonnement inductif. Il s'agit de tirer des conclusions sur la base de notre connaissance d'un petit échantillon et de supposer que ces conclusions s'appliquent à l'ensemble de la population. Ainsi, des études portant sur des logiciels de police prédictive ont révélé qu'une personne noire avait cinq fois plus de chances d'être arrêtée sans raison valable qu'une personne blanche. Dans certains, certains suspects ont été condamnés à tort.

Le capitaine Guarino a fait remarquer que les inquiétudes concernant l'exactitude des données et le désintérêt général du service pour l'utilisation du logiciel Geolitica suggéraient que l'argent payé pour le produit aurait pu être mieux dépensé ailleurs. Un précédent rapport de Gizmodo avait révélé que la police utilisait le logiciel de Geolitica pour cibler de manière disproportionnée les communautés de couleur à faibles revenus. David Weisburd, un criminologue qui a participé à l'examen d'un article universitaire de 2011 coécrit par deux des fondateurs de Geolitica, se souvient avoir approuvé leurs idées sur la modélisation de la criminalité à l'époque.

Mais il a averti que des prédictions inexactes peuvent avoir leurs propres effets externes négatifs, en plus d'être une perte de temps pour les agents de police. « Prédire des crimes dans des endroits où ils ne se produisent pas est une question destructrice. La police est un service, mais c'est un service qui peut avoir des conséquences négatives. Si vous envoyez la police quelque part, de mauvaises choses pourraient s'y produire », a déclaré Weisburd. Le logiciel de Geolitica fait l'objet de plusieurs critiques, certains allant même jusqu'à affirmer que "les logiciels de police prédictive ne sont que de la poudre aux yeux qui attirent juste les non initiés".

Une étude publiée en 2018 par une équipe de chercheurs dirigée par l'un des fondateurs de Geolitica a révélé que la population latino d'Indianapolis aurait subi de 200 % à 400 % de patrouilles par rapport aux populations blanches s'il avait été déployé là-bas. Geolitica n'a pas commenté la nouvelle étude publiée sur son logiciel. Par ailleurs, à en croire la rumeur, la société pourrait bientôt cesser ses activités. Un autre rapport de Wired allègue en effet que Geolitica prévoyait de cesser ses activités à la fin de l'année ; certains membres de son équipe auraient déjà été embauchés par une autre entreprise chargée de l'application de la loi.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la police prédictive ? Est-ce un domaine crédible ?
Ou est-ce une perte de temps comme le suggère l'étude ? Pourquoi ?
Que pensez-vous du logiciel de police prédictive Geolitica ?
Quel est votre avis sur les critiques à l'égard de la police prédictive ?
Peut-on corriger efficacement les biais des algorithmes de prédiction de la police ?

Voir aussi

Des scientifiques mettent au point un nouvel algorithme capable de prédire où les crimes vont se produire une semaine à l'avance et avec une précision de 90 %

Un shérif lance un algorithme pour prédire qui pourrait commettre un crime, des dizaines de personnes ont déclaré avoir été harcelées par des agents sans raison

L'utilisation par la police d'algorithmes et de big data pour prédire où les crimes pourraient se produire inquiète des défenseurs des droits de l'homme

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 20/07/2024 à 20:47
Ces gouvernants espagnols ne sont pas responsables des statistiques ni du logiciel, ils sont responsables de son utilisation. Ils sont responsables de chaque erreur du logiciel, notamment devant les évidences de certains cas. Pire encore, ils sont responsable d'utiliser le logiciel pour diminuer le nombre d'intervention policière au lieu de l'utiliser pour sauver des femmes.

Et ils en sont complètement responsable parce que il est connu des lycéens que les statistiques sont valables à une infinité de tirages et que ce mêmes statistiques sont totalement incapables de déterminer le prochain tirage, c'est à dire la prochaine femme qui va se faire tuer, que le logiciel dise qu'il y a risque ou que le logiciel dise qu'il n'y a pas de risque.

Pourquoi tant de haine ? Parce que le choix le plus malfaisant du gouvernement espagnol est d'utiliser sciemment ce logiciel pour introduire un biais dans la décision des policiers et diminuer ses frais en sachant pertinemment qu'il va provoquer des morts.
Pourquoi ? Tout simplement, parce que ce logiciel pouvait être utilisé pour protéger et uniquement protéger les femmes.
Comment ? En paramétrant le logiciel pour qu'il signale uniquement les cas de risques très élevés. Ainsi il aurait permis au policier qui prend la décision finale de remettre son jugement en cause dans les cas qu'il n'aurait pas détecté et alors sauver des femmes. Le choix d'ouvrir ce logiciel pour qu'il puisse indiquer au policier que son bon sens doit être ignoré sans quoi il devra s'en expliquer est une incitation à minimiser les risques réels encouru.

En plus, n'importe quel informaticien sait qu'un programme ne fait que ce qu'il est censé faire et ne peut rien faire d'autre. Et nous savons tous que la vie ne rentre pas dans les cases à cocher d'un questionnaire. Et donc toutes les femmes qui ne rentrent pas dans les critères établis par le gouvernement espagnol (avec tous les biais de la terre, l'obsolescence des critères selon l'évolution de la société, l 'absence totale de psychologie des victimes, ...) sont condamnées à être considérées comme à risque négligeables et ne pas être protégées par leur gouvernement et leur police. Si ce ne sont pas là des meurtres prémédités par ceux qui ont décidé de mettre en place ce programme, je ne sais pas ce que c'est.
8  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 21/07/2024 à 12:44
C'est pas nous, c'est l'ordinateur !!!
Classique non ?
6  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 21/07/2024 à 14:18
"Non madame vous n'êtes pas en train de vous faite pas violer, l'algo est formel la dessus alors arrêté de crier merci". Dernièrement une femme c'est fait condamné en France pour avoir utilisé de la lacrymo contre un gas (un migrant) qui voulait la violer justement... est ce que c'est plus intelligent que le debut de mon propos?
5  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 04/10/2023 à 22:26
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de la police prédictive ? Est-ce un domaine crédible ?
Pas plus que la prédiction de la bourse, non.
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/07/2024 à 9:04
Citation Envoyé par Stéphane le calme Voir le message
Pour évaluer les risques, la victime est priée de remplir un questionnaire de 35 points, rempli par les agents lors de l'entretien avec la victime, qui génère ensuite un score de risque allant de « négligeable » à « extrême »
[...]
Après que l'Espagne a adopté une loi en 2004 pour lutter contre la violence à l'égard des femmes, le gouvernement a rassemblé des experts en statistiques, en psychologie et dans d'autres domaines pour trouver une réponse. Leur objectif était de créer un modèle statistique permettant d'identifier les femmes les plus exposées à la violence et d'élaborer une réponse standardisée pour les protéger.
Il y a une chose qui m'échappe, la police écoute une potentielle victime pendant plusieurs minutes "librement et sans l’interrompre" puis donne un questionnaire pour prendre de conclusions sur base d'un algorithme?
Mais les minutes libres et sans interruption sont elles finalement prises en compte. Un paquet de choses doivent être perçues qu'il est potentiellement difficile de factualiser mais qui reste des indice des risques d'aggravation de la situation.

Quand les gens comprendront que quand on parle de statistique on parle d'un modèle.
Modèle qui a potentiellement des scénarios où il n'est pas représentatif voir où il l'est. Si le modèle dit "la femme à 90% de chances d'être dans une situation à risque négligeable" ce qu'il faut aussi comprendre est qu'elle a "10% de chance d'être dans un situation à risque significatif".
D'autant plus que dans le cas de violence conjugale la paramètre principal n'est pas la victime mais l'agresseur qui n'est pas interrogé.
Le système attribue un score à chaque victime : risque négligeable, risque faible, risque moyen, risque élevé ou risque extrême. Un score élevé entraîne des patrouilles de police et le suivi des mouvements de l'agresseur. Dans les cas extrêmes, la police assurerait une surveillance 24 heures sur 24. Les personnes ayant obtenu un score moins élevé recevraient moins de ressources, principalement des appels de suivi.
C'est intéressant que tout tourne autour de la victime.
On enquête pas sur l'agresseur?
On évalue pas sa dangerosité?
L'Espagne compte aujourd'hui 92 000 cas actifs de victimes de violences de genre qui ont été évalués par VioGén, la plupart d'entre elles - 83 % - étant classées comme courant peu de risques d'être à nouveau agressées par leur agresseur. Pourtant, environ 8 % des femmes que l'algorithme a classées comme présentant un risque négligeable et 14 % comme présentant un risque faible ont déclaré avoir été à nouveau agressées, selon le ministère espagnol de l'intérieur, qui supervise le système.
C'est à dire qu'il est factualisé que le logiciel n'est pas si fiable.
Que fait on de ces 8% et 14%? On se contente de constater l'erreur et de s'excuser quand elles reviennent avec un cocard (au mieux)?
VioGén a été créé pour être un outil impartial permettant à la police, dont les ressources sont limitées
C'est normal que les ressources soient limitée, mais sont elles suffisantes pour gérer ces situations?
Si la réponse est non alors ce n'est ni le logiciel ni les agents qu'il faut attaquer mais le "système" qui ne met pas les moyens nécessaires.
Parce que s'il manque de personnel alors les priorités doivent être gérées et les "sacrifices" inévitables.
La technologie devait permettre de gagner en efficacité en aidant la police à donner la priorité aux cas les plus urgents
Quand on parle de vies humaines l'efficacité ne devrait pas être de priorisé les cas les plus urgents mais d'accélérer la capacité de réaction.
Pas pour décider qui doit être protégé et qui ne doit pas l'être.
Dans une déclaration, le ministère de l'intérieur a défendu VioGén et a déclaré que le gouvernement était « le premier à faire son autocritique » lorsque des erreurs se produisaient. Il a déclaré que les homicides étaient si rares qu'il était difficile de les prédire avec précision, mais a ajouté qu'il s'agissait d'un « fait incontestable » que VioGén avait contribué à réduire la violence à l'égard des femmes.
Et c'est là toute l'inefficacité de l'IA aujourd'hui, elle ne sait pas gérer les exceptions, les évènements rares.
Pourtant quand on évalue un risque on utilise deux paramètres :
la probabilité, dont les cas critiques sont bien gérés par l'IA
La gravité, dont les cas critiques semblent mal gérés par l'IA actuelle.
(On peut y ajouter la maitrise/prévisibilité/capacité de réaction)
Depuis 2007, environ 0,03 % des 814 000 victimes de violence de genre signalées en Espagne ont été tuées après avoir été évaluées par VioGén, a indiqué le ministère. Au cours de cette période, les agressions répétées sont passées de 40 % à environ 15 % de tous les cas de violence à l'égard des femmes, selon les chiffres du gouvernement.
Comment noyer le poisson?
Oui le logiciel est efficace pour les "cas standard", et c'est bien.
Mais a-t-il diminué les cas graves, qui en cas de probabilité particulièrement faible peut se calculer différemment qu'en pourcentage, pourmillionnage etc par exemple en durée entre les évènements.
La technologie peut-elle vraiment prévenir la violence conjugale ? Pensez-vous que les algorithmes comme VioGén sont efficaces pour protéger les victimes de violence domestique ? Quelles autres approches technologiques pourraient être envisagées ?
Oui, la technologie traite visiblement assez facilement les cas communs (qui sont connus, documentés, etc).
Mais elle gère beaucoup moins facilement les exceptions.
Et à un moment il faut sortir de la technologie pour y mettre de l'humain et je parle autant de capacité d'écoute de la police que de temps disponibles des agents.
L’importance du contexte social : est-il important, selon vous, de prendre en compte le contexte social et familial lors de l’évaluation des risques ? Comment les facteurs sociaux peuvent-ils influencer la sécurité des victimes ?
Comment ne pas les prendre en compte?
Si la victime est socialement dépendante (finance, handicap, isolée) de son agresseur alors la situation est d'autant plus à risque.
Les limites des algorithmes : discutez des limites de VioGén et des autres algorithmes similaires. Quelles améliorations pourraient être apportées pour renforcer leur efficacité ?
Pour moi la question n°1 n'est pas d'améliorer les limites mais de les connaitre, de les accepter et de les compenser. Une fois qu'on a bouché les trous on peut envisager d'essayer de les réduire.
Ces trous riment parfois avec des morts. On ne peut pas se contenter de solutions à long terme...
La responsabilité des autorités : comment pouvons-nous garantir que les évaluations de risques sont correctement utilisées ?
En ayant suffisamment de gens pour les traiter.
En formant les gens qui doivent les traiter?
L'humain doit toujours rester au centre.
De façon plus générale, que pensez-vous des algorithmes prédictifs ?
Qu'ils sont efficaces pour le commun.
Qu'ils sont nuls pour les exceptions, les évènements rares etc
Et que si nous parions trop sur eux alors nous diminuerons les marges de sécurités pour optimiser le nominal mais les que exceptions seront moins couvertes et augmenterons en fréquence et en gravité. Ce qui rime avec plus de morts.
Nous allons diminuer les hôpitaux et augmenter les morques. Est ce vraiment ce que nous voulons pour notre société?
2  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/07/2024 à 17:26
[IRONIE]
Manque plus que le questionnaire de satisfaction
[/IRONIE]
1  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 22/07/2024 à 9:50
Citation Envoyé par pierre-y Voir le message
"Non madame vous n'êtes pas en train de vous faite pas violer, l'algo est formel la dessus alors arrêté de crier merci". Dernièrement une femme c'est fait condamné en France pour avoir utilisé de la lacrymo contre un gas (un migrant) qui voulait la violer justement... est ce que c'est plus intelligent que le debut de mon propos?
Quand on tient des propos de ce genre, la moindre des choses c'est de les sourcer.
2  2