IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La police de New York a dépensé des millions pour les services d'une entreprise tech prétendant pouvoir utiliser l'IA
Pour surveiller les réseaux sociaux et prédire qui seront les futurs criminels

Le , par Stéphane le calme

31PARTAGES

8  0 
Voici pourquoi des centaines de mathématiciens boycottent la technologie de "police prédictive",
Certains qualifient ces algorithmes de « vernis scientifique pour le racisme »

La vague de protestation contre le racisme et la brutalité policière a atteint les départements de mathématiques des universités. Un groupe de mathématiciens aux États-Unis a écrit une lettre à American Mathematical Society Notices en juin, demandant à leurs collègues de cesser de collaborer avec la police en raison des disparités largement documentées dans la façon dont les forces de l'ordre américaines traitent les personnes de couleur. Leurs critiques se concentrent sur la police prédictive, une technologie basée sur les mathématiques qui vise à stopper la criminalité avant qu'elle ne se produise, selon la lettre.

La lettre cosignée par plusieurs centaines de chercheurs est arrivée quelques semaines après les nombreuses protestations contre la brutalité policière dans les grandes villes aux États-Unis. Plusieurs éminents mathématiciens universitaires exhortent leurs collègues chercheurs à cesser tout travail lié aux logiciels de police prédictive, qui comprennent en général tous les outils d'analyse de données qui utilisent des données historiques pour aider à prévoir la criminalité future, les délinquants potentiels et les victimes. Cette technologie est censée utiliser les probabilités pour aider les services de police à adapter leur couverture de quartier afin de placer les agents au bon endroit et au bon moment.


« Compte tenu du racisme structurel et de la brutalité qui caractérisent le maintien de l'ordre aux États-Unis, nous ne pensons pas que les mathématiciens devraient collaborer de cette manière avec les services de police », écrivent les auteurs de la lettre. « Il est tout simplement trop facile de créer un vernis "scientifique" pour le racisme. Veuillez vous joindre à nous pour vous engager à ne pas collaborer avec la police. C'est, en ce moment, le moins que nous puissions faire en tant que communauté ». Une page de signature de la lettre est mise en ligne via une page Google Docs, et la liste des cosignataires est consultable sure une page Web dédiée au mouvement de Boycott.

« C'est un moment où beaucoup d'entre nous ont pris conscience de réalités qui existent depuis très longtemps », a déclaré dans un communiqué Jayadev Athreya, professeur associé au département de mathématiques de l'Université de Washington qui a signé la lettre. « Et beaucoup d'entre nous ont estimé qu'il était très important de faire une déclaration claire sur notre position, en tant que mathématiciens, sur ces questions ».

La technologie de police prédictive peut inclure des algorithmes statistiques ou d'apprentissage automatique qui s'appuient sur des dossiers de police, qui fournissent les détails de l'heure, du lieu et la nature des crimes passés, afin de prédire si, quand, où et qui pourrait commettre de futures infractions. Cette pratique devrait, en théorie, aider les autorités à utiliser les ressources de manière plus judicieuse et à passer plus de temps à surveiller certains quartiers qui, selon elles, devraient connaître des taux de criminalité plus élevés.

Selon un rapport de recherche publié en 2013 par RAND Corporation, un groupe de réflexion à but non lucratif de Santa Monica, en Californie, la police prédictive est constituée d'un cycle en quatre parties (voir figure ci-dessous). Au cours des deux premières étapes, les chercheurs recueillent et analysent des données sur les crimes, les incidents et les délinquants afin d'établir des prévisions. À partir de là, la police intervient sur la base de ces prédictions, généralement sous la forme d'une augmentation des ressources sur certains sites à certains moments. La quatrième étape consiste, dans l'idéal, à réduire la criminalité.


Les logiciels de police prédictive étaient censés être un outil d’aide aux services de police qui font face à des crises budgétaires avec moins d'agents pour couvrir une région. Mais en pratique, la précision de cette technologie a été contestée - et on l'a même qualifiée de raciste. C’est le cas avec des mathématiciens qui appellent à cesser leur collaboration avec les départements de police en ce qui concerne cette technologie.

Le logiciel de police prédictive ne permet pas de prévoir les futurs crimes, mais renforce au contraire les préjugés des agents

L’action des mathématiciens prend ces sources en 2016, lorsque PredPol, une entreprise technologique basée à Santa Cruz, en Californie, qui développe et vend des outils de police prédictive aux départements américains, a coorganisé un atelier - qui préconisait l'implication des mathématiciens dans les services de police - avec l'Institute for Computational and Experimental Research in Mathematics (ICERM) à l'Université Brown à Providence, dans le Rhode Island.

Le programme de l’atelier comprenait un travail aux côtés du département de police de Providence, et les participants, dont les mathématiciens, devaient se concentrer sur des problèmes réels avec de vraies données sur la criminalité et la police pour réfléchir à des méthodes et des modèles mathématiques qui pourraient aider les agents, voire même « créer un code pour mettre en œuvre des idées si nécessaire », selon un avis publié sur le site Web de ICERM à l'occasion de l'événement. À l’époque, selon l’avis, les organisateurs de l'événement ont déclaré qu'ils « prévoient pleinement que des collaborations durables se formeront, et que le travail sur les projets se poursuivra après la fin de l'atelier ».

Christopher Hoffman, professeur au département de mathématiques de l'Université de Washington, qui a également signé la lettre, a expliqué dans un communiqué que l'adhésion des institutions le préoccupait, lui et ses collègues. Quand un grand institut fait cela, c'est comme si on disait « c'est quelque chose que nous, en tant que communauté, apprécions », dit-il. « Nous avons fait partie de ces institutions vraiment problématiques, et c'est le moment pour nous de réfléchir et de décider que nous n'allons pas faire cela en tant que communauté, que nous n'allons pas collaborer avec des organisations qui tuent des gens », a-t-il ajouté.

Les chercheurs s'opposent en particulier à PredPol en affirmant dans leur lettre que sa technologie crée des boucles de rétroaction racistes. Pour eux, le logiciel ne permet pas de prévoir les futurs crimes, mais renforce au contraire les préjugés des agents. Mais Brian MacDonald, le PDG de PredPol, a déclaré dans un communiqué que sa technologie n'utilise jamais les données d'arrestation, « parce que cela peut entraîner des préjugés de la part des officiers ». Au lieu de cela, dit-il, la société n'utilise que les données que les victimes ont elles-mêmes signalées à la police, a-t-il ajouté.

Tarik Aougab, professeur adjoint de mathématiques au Haverford College et signataire de la lettre, a aussi expliqué que le fait de conserver les données d'arrestation à partir du modèle de PredPol ne suffit pas à éliminer les biais : « Le problème de la police prédictive est qu'il ne s'agit pas seulement d'un biais individuel de l'agent », dit Aougab. « Il y a un énorme biais structurel en jeu, qui pourrait notamment prendre en compte le vol à l'étalage mineur, ou l'utilisation d'un faux billet - ce qui a finalement précipité le meurtre de George Floyd - comme un crime auquel la police devrait répondre en premier lieu ».


Environ 60 services de police aux États-Unis utilisent la technologie de police prédictive de PredPol

MacDonald a déclaré à Los Angeles Times en 2019 que 60 des 18 000 services de police des États-Unis utilisent PredPol, dont le Los Angeles Police Department. En 2011, le LAPD a commencé à utiliser un logiciel de police prédictive appelé Los Angeles Strategic Extraction and Restoration (LASER), qu'il a finalement cessé d'utiliser en avril 2019, selon Latimes.

« La police de Los Angeles a examiné la question et n'a pu tirer aucune conclusion sur l'efficacité du logiciel », explique M. Hoffman. « Nous ne savons même pas si cela fait une différence dans les endroits où la police patrouille ».

Pendant ce temps, le Département de police de la ville de New York utilise trois outils différents de police prédictive : Azavea, Keystats et PredPol, ainsi que ses propres algorithmes internes de police prédictive qui remontent à 2013, explique M. Athreya, signataire de la lettre.

Selon un article publié en juin dernier par le quotidien Star Tribune, le département de police de Santa Cruz a récemment interdit l'utilisation d'outils de police prédictive. Le département a commencé un projet pilote de police prédictive qui devait alléger la charge des agents qui étaient submergés d'appels de service à un moment où la ville réduisait les budgets de la police. Le chef de la police Andy Mills a déclaré au Los Angeles Times que la police prédictive aurait pu être efficace si elle avait été utilisée pour travailler avec la communauté afin de résoudre les problèmes, plutôt que de « faire de la pure application de la loi ».

Les mathématiciens font comprendre que leur boycott n'est pas seulement une « préoccupation théorique ». Mais, selon eux, si la technologie continue d'exister, il devrait y avoir au moins quelques lignes directrices pour sa mise en œuvre. Ils ont quelques exigences qui se résument pour l'essentiel aux concepts de transparence et d'adhésion de la communauté. Ils exigent que tout algorithme ayant un « impact potentiel élevé » devrait être soumis à un audit public. Ils veulent...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 13/09/2023 à 14:39
Minority Report...

au final, tous les films d'anticipations ont vu juste. Absolument tous. Le futur s'annonce effrayant.
8  0 
Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 20/07/2024 à 20:47
Ces gouvernants espagnols ne sont pas responsables des statistiques ni du logiciel, ils sont responsables de son utilisation. Ils sont responsables de chaque erreur du logiciel, notamment devant les évidences de certains cas. Pire encore, ils sont responsable d'utiliser le logiciel pour diminuer le nombre d'intervention policière au lieu de l'utiliser pour sauver des femmes.

Et ils en sont complètement responsable parce que il est connu des lycéens que les statistiques sont valables à une infinité de tirages et que ce mêmes statistiques sont totalement incapables de déterminer le prochain tirage, c'est à dire la prochaine femme qui va se faire tuer, que le logiciel dise qu'il y a risque ou que le logiciel dise qu'il n'y a pas de risque.

Pourquoi tant de haine ? Parce que le choix le plus malfaisant du gouvernement espagnol est d'utiliser sciemment ce logiciel pour introduire un biais dans la décision des policiers et diminuer ses frais en sachant pertinemment qu'il va provoquer des morts.
Pourquoi ? Tout simplement, parce que ce logiciel pouvait être utilisé pour protéger et uniquement protéger les femmes.
Comment ? En paramétrant le logiciel pour qu'il signale uniquement les cas de risques très élevés. Ainsi il aurait permis au policier qui prend la décision finale de remettre son jugement en cause dans les cas qu'il n'aurait pas détecté et alors sauver des femmes. Le choix d'ouvrir ce logiciel pour qu'il puisse indiquer au policier que son bon sens doit être ignoré sans quoi il devra s'en expliquer est une incitation à minimiser les risques réels encouru.

En plus, n'importe quel informaticien sait qu'un programme ne fait que ce qu'il est censé faire et ne peut rien faire d'autre. Et nous savons tous que la vie ne rentre pas dans les cases à cocher d'un questionnaire. Et donc toutes les femmes qui ne rentrent pas dans les critères établis par le gouvernement espagnol (avec tous les biais de la terre, l'obsolescence des critères selon l'évolution de la société, l 'absence totale de psychologie des victimes, ...) sont condamnées à être considérées comme à risque négligeables et ne pas être protégées par leur gouvernement et leur police. Si ce ne sont pas là des meurtres prémédités par ceux qui ont décidé de mettre en place ce programme, je ne sais pas ce que c'est.
8  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 21/07/2024 à 12:44
C'est pas nous, c'est l'ordinateur !!!
Classique non ?
6  0 
Avatar de Nym4x
Membre confirmé https://www.developpez.com
Le 14/09/2023 à 8:07
Mme Irma 3.0... Plus sérieusement, c'est d'une fumisterie totale pour plusieurs raisons:
- Si l'IA savait prédire l'avenir ou les comportements, il n'y aurait pas de krach boursier non prévu car la finance est le principal secteur où elle est utilisée. En conséquence, si elle ne peut pas prédire l'évolution de l'économie où les modèles sont établis, comment pourrait-elle prédire les comportements humains qui sont beaucoup plus complexes?
- Les gens dangereux ou délinquants chevronnés veulent rester discret et certainement pas laisser des indices en ligne sur leurs activités.
- Il n'existe aucun profil type pour les terroristes: https://www.lepoint.fr/societe/terro...2151001_23.php
- Et pour leurs éventuelles activités illégales en ligne, ils utilisent aussi des faux comptes ou bien des subalternes. Ceux qui vont commettre un attentat ne sont pas connus des services de police.
- L'IA prédictive rejoint un peu l'influence de l'observateur sur l'état dans le domaine quantique : à partir du moment où on sait qu'elle observe, les comportements changent et le modèle n'est plus valable.

Bref à part emmerder le petit délinquant, alimenter les atteintes à la liberté d'expression, faire peur à Mme Michu qui n'osera plus poster son avis en ligne (est-ce un mal d'ailleurs? ) ainsi que délester la NYPD de plusieurs millions. pour moi c'est du bullshit.
4  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 21/07/2024 à 14:18
"Non madame vous n'êtes pas en train de vous faite pas violer, l'algo est formel la dessus alors arrêté de crier merci". Dernièrement une femme c'est fait condamné en France pour avoir utilisé de la lacrymo contre un gas (un migrant) qui voulait la violer justement... est ce que c'est plus intelligent que le debut de mon propos?
5  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 04/10/2023 à 22:26
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous de la police prédictive ? Est-ce un domaine crédible ?
Pas plus que la prédiction de la bourse, non.
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/07/2024 à 9:04
Citation Envoyé par Stéphane le calme Voir le message
Pour évaluer les risques, la victime est priée de remplir un questionnaire de 35 points, rempli par les agents lors de l'entretien avec la victime, qui génère ensuite un score de risque allant de « négligeable » à « extrême »
[...]
Après que l'Espagne a adopté une loi en 2004 pour lutter contre la violence à l'égard des femmes, le gouvernement a rassemblé des experts en statistiques, en psychologie et dans d'autres domaines pour trouver une réponse. Leur objectif était de créer un modèle statistique permettant d'identifier les femmes les plus exposées à la violence et d'élaborer une réponse standardisée pour les protéger.
Il y a une chose qui m'échappe, la police écoute une potentielle victime pendant plusieurs minutes "librement et sans l’interrompre" puis donne un questionnaire pour prendre de conclusions sur base d'un algorithme?
Mais les minutes libres et sans interruption sont elles finalement prises en compte. Un paquet de choses doivent être perçues qu'il est potentiellement difficile de factualiser mais qui reste des indice des risques d'aggravation de la situation.

Quand les gens comprendront que quand on parle de statistique on parle d'un modèle.
Modèle qui a potentiellement des scénarios où il n'est pas représentatif voir où il l'est. Si le modèle dit "la femme à 90% de chances d'être dans une situation à risque négligeable" ce qu'il faut aussi comprendre est qu'elle a "10% de chance d'être dans un situation à risque significatif".
D'autant plus que dans le cas de violence conjugale la paramètre principal n'est pas la victime mais l'agresseur qui n'est pas interrogé.
Le système attribue un score à chaque victime : risque négligeable, risque faible, risque moyen, risque élevé ou risque extrême. Un score élevé entraîne des patrouilles de police et le suivi des mouvements de l'agresseur. Dans les cas extrêmes, la police assurerait une surveillance 24 heures sur 24. Les personnes ayant obtenu un score moins élevé recevraient moins de ressources, principalement des appels de suivi.
C'est intéressant que tout tourne autour de la victime.
On enquête pas sur l'agresseur?
On évalue pas sa dangerosité?
L'Espagne compte aujourd'hui 92 000 cas actifs de victimes de violences de genre qui ont été évalués par VioGén, la plupart d'entre elles - 83 % - étant classées comme courant peu de risques d'être à nouveau agressées par leur agresseur. Pourtant, environ 8 % des femmes que l'algorithme a classées comme présentant un risque négligeable et 14 % comme présentant un risque faible ont déclaré avoir été à nouveau agressées, selon le ministère espagnol de l'intérieur, qui supervise le système.
C'est à dire qu'il est factualisé que le logiciel n'est pas si fiable.
Que fait on de ces 8% et 14%? On se contente de constater l'erreur et de s'excuser quand elles reviennent avec un cocard (au mieux)?
VioGén a été créé pour être un outil impartial permettant à la police, dont les ressources sont limitées
C'est normal que les ressources soient limitée, mais sont elles suffisantes pour gérer ces situations?
Si la réponse est non alors ce n'est ni le logiciel ni les agents qu'il faut attaquer mais le "système" qui ne met pas les moyens nécessaires.
Parce que s'il manque de personnel alors les priorités doivent être gérées et les "sacrifices" inévitables.
La technologie devait permettre de gagner en efficacité en aidant la police à donner la priorité aux cas les plus urgents
Quand on parle de vies humaines l'efficacité ne devrait pas être de priorisé les cas les plus urgents mais d'accélérer la capacité de réaction.
Pas pour décider qui doit être protégé et qui ne doit pas l'être.
Dans une déclaration, le ministère de l'intérieur a défendu VioGén et a déclaré que le gouvernement était « le premier à faire son autocritique » lorsque des erreurs se produisaient. Il a déclaré que les homicides étaient si rares qu'il était difficile de les prédire avec précision, mais a ajouté qu'il s'agissait d'un « fait incontestable » que VioGén avait contribué à réduire la violence à l'égard des femmes.
Et c'est là toute l'inefficacité de l'IA aujourd'hui, elle ne sait pas gérer les exceptions, les évènements rares.
Pourtant quand on évalue un risque on utilise deux paramètres :
la probabilité, dont les cas critiques sont bien gérés par l'IA
La gravité, dont les cas critiques semblent mal gérés par l'IA actuelle.
(On peut y ajouter la maitrise/prévisibilité/capacité de réaction)
Depuis 2007, environ 0,03 % des 814 000 victimes de violence de genre signalées en Espagne ont été tuées après avoir été évaluées par VioGén, a indiqué le ministère. Au cours de cette période, les agressions répétées sont passées de 40 % à environ 15 % de tous les cas de violence à l'égard des femmes, selon les chiffres du gouvernement.
Comment noyer le poisson?
Oui le logiciel est efficace pour les "cas standard", et c'est bien.
Mais a-t-il diminué les cas graves, qui en cas de probabilité particulièrement faible peut se calculer différemment qu'en pourcentage, pourmillionnage etc par exemple en durée entre les évènements.
La technologie peut-elle vraiment prévenir la violence conjugale ? Pensez-vous que les algorithmes comme VioGén sont efficaces pour protéger les victimes de violence domestique ? Quelles autres approches technologiques pourraient être envisagées ?
Oui, la technologie traite visiblement assez facilement les cas communs (qui sont connus, documentés, etc).
Mais elle gère beaucoup moins facilement les exceptions.
Et à un moment il faut sortir de la technologie pour y mettre de l'humain et je parle autant de capacité d'écoute de la police que de temps disponibles des agents.
L’importance du contexte social : est-il important, selon vous, de prendre en compte le contexte social et familial lors de l’évaluation des risques ? Comment les facteurs sociaux peuvent-ils influencer la sécurité des victimes ?
Comment ne pas les prendre en compte?
Si la victime est socialement dépendante (finance, handicap, isolée) de son agresseur alors la situation est d'autant plus à risque.
Les limites des algorithmes : discutez des limites de VioGén et des autres algorithmes similaires. Quelles améliorations pourraient être apportées pour renforcer leur efficacité ?
Pour moi la question n°1 n'est pas d'améliorer les limites mais de les connaitre, de les accepter et de les compenser. Une fois qu'on a bouché les trous on peut envisager d'essayer de les réduire.
Ces trous riment parfois avec des morts. On ne peut pas se contenter de solutions à long terme...
La responsabilité des autorités : comment pouvons-nous garantir que les évaluations de risques sont correctement utilisées ?
En ayant suffisamment de gens pour les traiter.
En formant les gens qui doivent les traiter?
L'humain doit toujours rester au centre.
De façon plus générale, que pensez-vous des algorithmes prédictifs ?
Qu'ils sont efficaces pour le commun.
Qu'ils sont nuls pour les exceptions, les évènements rares etc
Et que si nous parions trop sur eux alors nous diminuerons les marges de sécurités pour optimiser le nominal mais les que exceptions seront moins couvertes et augmenterons en fréquence et en gravité. Ce qui rime avec plus de morts.
Nous allons diminuer les hôpitaux et augmenter les morques. Est ce vraiment ce que nous voulons pour notre société?
2  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/07/2024 à 17:26
[IRONIE]
Manque plus que le questionnaire de satisfaction
[/IRONIE]
1  0 
Avatar de Mister Nono
Membre chevronné https://www.developpez.com
Le 14/09/2023 à 11:23
Attention, pas de commentaires car sinon " blacklisted by AI ".
0  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 22/07/2024 à 9:50
Citation Envoyé par pierre-y Voir le message
"Non madame vous n'êtes pas en train de vous faite pas violer, l'algo est formel la dessus alors arrêté de crier merci". Dernièrement une femme c'est fait condamné en France pour avoir utilisé de la lacrymo contre un gas (un migrant) qui voulait la violer justement... est ce que c'est plus intelligent que le debut de mon propos?
Quand on tient des propos de ce genre, la moindre des choses c'est de les sourcer.
2  2