IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des scientifiques mettent au point un nouvel algorithme capable de prédire où les crimes vont se produire une semaine à l'avance
Et avec une précision de 90 %

Le , par Patrick Ruiz

22PARTAGES

9  0 
Ce ne sera pas le premier algorithme conçu à cette fin : prédire où les crimes vont se produire. D’autres publications dans le même genre, encore plus controversées, ont même fait l’objet de suppression en ligne. La nouvelle publication d’une équipe de scientifiques de l’université de Chicago, qui ne manque pas de faire penser au film Minority Report, n’échappe pas aux débats en matière de biais qui ont touché à celles qui la précède. En effet, crime est un terme chapeau auxquels l’association d’un pourcentage de précision passe mal au travers de plusieurs gorges. L’équipe de chercheurs se veut d’ailleurs prudente en recommandant d’éviter d’en faire usage pour un ratissage proactif des quartiers. De quoi donner du crédit aux craintes des défenseurs des droits de l’Homme ?

Le nouvel algorithme examine les coordonnées temporelles et spatiales d'événements discrets et en détecte des modèles pour prédire les événements futurs. Il divise la ville en tuiles spatiales d'environ 1000 pieds de côté et prédit la criminalité dans ces zones. Les modèles précédents s'appuyaient davantage sur les frontières politiques ou de voisinage traditionnelles. Les résultats du modèle sont basés sur les données de plusieurs villes américaines : Atlanta, Austin, Detroit, Los Angeles, Philadelphie, Portland et San Francisco.


Une étude de chercheurs de l'université américaine privée à but non lucratif de Harrisburg restera dans les annales pour sa suppression en ligne après publication. Sa conclusion de façon ramassée était qu’un logiciel peut prédire qu’un tiers sera criminel avec une précision de 80 % et sans biais racial, ce, rien qu’en s’appuyant sur sa photo. Le communiqué, qui avait commencé à être partagé sur Twitter, avait attiré un afflux important de contradicteurs. « L'étude a été retirée du site web à la demande de la faculté impliquée dans la recherche. Elle travaille sur une mise à jour du document afin de répondre aux préoccupations soulevées », avait indiqué le communiqué y relatif. La mise à jour reste attendue.

En 2016, une équipe de recherche de la Jiao Tong University de Shanghai publiait son étude liant criminalité et caractéristiques faciales des individus. Dans les chiffres, l’étude rapporte que le système est capable de détecter avec une précision de 90 % qui est le plus susceptible d’être un criminel, ce, sans biais.


La phase d’entraînement de l’intelligence artificielle de l’université chinoise s’est faite avec plus de mille clichés d’individus tirés de cartes d’identité nationales dont sept cents appartenaient à des criminels reconnus. Il est peut-être là le problème avec ces systèmes. En effet, une étude de chercheurs du MIT montre que la création d’une intelligence artificielle psychopathe tient à une chose essentielle : la nourrir d’images ultras violentes lors du processus d’entraînement. C’est une illustration du problème de biais des données fournies aux intelligences artificielles qui semble être la raison profonde des controverses que l’on observe. Si l’on inverse le regard sur les taux de précision, il faut dire qu’il y a 10 à 20 % de faux positifs en fonction des résultats de l’université auxquels on fait allusion. C’est un problème quand on sait que cela représente un paquet de personnes susceptibles d’être accusées à tort comme l'ont été des membres du Congrès des USA par une intelligence artificielle. C’est la raison pour laquelle les organisations de défense des droits de l’Homme formulent des inquiétudes.

Source : Etude

Et vous ?

Doit-on se fier aux algorithmes pour prédire où les crimes peuvent se produire ou pour savoir qui peut être criminel compte tenu des avancées actuelles en matière de technologie ?
Dans quelles situations peut-il être intéressant de mettre de tels algorithmes à contribution ?

Voir aussi :

Reconnaissance faciale : le chef de la police de Detroit admet un taux d'erreur de 96 %. La police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie

L'utilisation de la reconnaissance faciale par la police viole les droits de l'homme, selon un tribunal britannique. Cependant, la Cour n'a pas complètement interdit l'utilisation de la technologie

81 % des suspects signalés par la technologie de reconnaissance faciale de la police du Grand Londres sont innocents, selon un rapport

USA : Portland adopte l'interdiction de la reconnaissance faciale la plus stricte à ce jour dans le pays, bannissant l'utilisation publique et privée de la technologie

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de MacaronFR
Membre à l'essai https://www.developpez.com
Le 01/07/2022 à 9:29
Si on part du principe que cet algo à raison et que l'on commence à s'en servir réellement, de nombreux biais peuvent finir par créer de fortes discrimination sur la répartition des forces de l'ordre.
Ce sujet avait été abordé il y a un certain temps par un youtubeur, Fouloscopie
, il aborde le sujet avec beaucoup de pédagogie et explique bien tout les tenants et les aboutissant de cette méthode (ainsi que ses problèmes).
Je pense que de tel algo peuvent être intéressant dans une situation de conseil où d'autre donnée sont en jeux et où la décision ne se repose pas sur l'algo et est faite par un humain.
7  0 
Avatar de tatayo
Expert éminent sénior https://www.developpez.com
Le 01/07/2022 à 9:59
Ça me rappelle vaguement quelque chose

Tatayo.
5  0 
Avatar de phil995511
Membre éclairé https://www.developpez.com
Le 01/07/2022 à 12:41
On n'arrive déjà pas à prédire la météo, alors les crimes !! Je n'y crois juste pas.

A part ça tout le monde peut dire que par exemple dans des quartiers extrêmement pauvres ou là où ça deal il peut y avoir potentiellement plus de crimes commis, pas besoin d'un pseudo algorithme pour ça...
4  1 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 01/07/2022 à 14:04
Je vois déjà les prochains titres : l'IA de prédiction de crime est raciste !

On ne mentionnera pas qu'elle est également sexiste, bien que ce sera majoritairement des hommes qui seront choisis!
2  0 
Avatar de totozor
Membre éprouvé https://www.developpez.com
Le 04/07/2022 à 7:52
Citation Envoyé par Patrick Ruiz Voir le message
Des scientifiques mettent au point un nouvel algorithme capable de prédire où les crimes vont se produire une semaine à l'avance avec une précision de 90 %
Je ne suis pas sur de savoir ce que veulent dire ces 90%
Sur 100 crimes prévus 90 ont bien eu lieu
Sur 100 crimes constatés 90 ont été prévus
Sur l'ensemble de 100 crimes prévus ou constatés 90 étaient prévus et constatés.

L'autre question est qu'appelle-t-on crime?
Je suis capable de prévoir de la vente de drogue à certains endroits avec une précision plus élevée que ça.

Quel serait l'objectif d'un tel algorithme?
Augmenter la présence policière dans la zone prévue pour le prévenir?
Pourquoi pas mais attention aux biais qu'explique fouloscopie dans la vidéo précitée.
Pourquoi pas mais les crimes au domicile sont difficilement prévenus par de la présence publique.
Cet algorithme prévoir probablement de la criminalité "courante" (vol en tout genre, agression publique, etc) criminalité qui me semble plus facile à prévenir par une présence plus régulière et moins menaçante que par une présence occasionnelle très affirmée.
D'ailleurs la présence occasionnelle ne ferait elle pas que retarder le crime? (les flics sont là je braquerais la superette demain quand ils seront partis).
2  0 
Avatar de Armitage1982
Membre du Club https://www.developpez.com
Le 01/07/2022 à 10:07
J'ai toujours trouvé qu'il y avait trop de "Happy Ending" dans les films. Et pourtant, quand la réalité copie la fiction, elle va rarement jusqu'au bout de son mimétisme.

Question du Bac : « La vie serait-elle une caricature du cinéma ? ».
1  0 
Avatar de MajorKurk
Membre à l'essai https://www.developpez.com
Le 01/07/2022 à 10:52
Pour 900 coupable, 100 innocent, donc 900 vie sauvé contre 100 vie possiblement gaché ?
Le dilemme du tramway... Devons-nous attendre réellement que les gens meurt pour agir ? Ou agir de façon préventive, sans forcément se dire que la personne aurait pu être coupable, n'est pas suffisant ?
Au pire, on envoi pas direct la personne en prison comme si elle était coupable, on peut très bien faire de la sensibilisation, et un accompagnement. Comme ça personne n'est vraiment lésé.
2  1 
Avatar de AoCannaille
Membre expert https://www.developpez.com
Le 01/07/2022 à 11:11
Citation Envoyé par MajorKurk Voir le message
Pour 900 coupable, 100 innocent, donc 900 vie sauvé contre 100 vie possiblement gaché ?
Oui mais non, il ne s'agit pas d'emprisonner bêtement les gens là où l'algo dit qu'il va se passer quelque chose, mais bien d'être là à ce moment et, au mieux, empêcher que ça arrive, au pire constater et embarquer au flagrant délit.

Décrit comme ça, c'est plutôt : 1 fois sur 10, les policiers se déplaceront pour rien.

La question restante étant donc, est-ce que sans cet algo, les policiers passent plus ou moins de 10% de leur temps là où il ne se passe rien ?
Au doigt mouillé je dirait qu'ils gagneraient en efficacité.

Concrètement, selon moi, cela reste une variante du contrôle au faciès : statistiquement c'est plus efficace, individuellement c'est discriminatoire...

Est-ce que c'est souhaitable, éthique, ou déontologique ? Je ne m'y connais pas assez pour avoir un avis tranché...
1  0 
Avatar de BleAcheD
Membre averti https://www.developpez.com
Le 04/07/2022 à 14:13
Comment se défendre fasse à une IA qui dit que vous allez devenir un criminel ?
1  0 
Avatar de mach1974
Membre actif https://www.developpez.com
Le 01/07/2022 à 18:00
Un pauvre algorithme pour ségréguer une zone géographique pour les plus forts nombre de crime et de délit . Et les tueurs comme Heaulme qui allait sur tout le territoire .
suffit de faire du big data avec les moyennes en réduisant les frontières des zones avec une gaussienne pour une extrapolation .
Faut arrêter le publish or perish et la Hype . Déjà assez d'Elon Munsk avec NEURALINK alors que les Suisses implantent des dispositifs sur le cerveau pour Parkison
1  1