Le nouvel algorithme examine les coordonnées temporelles et spatiales d'événements discrets et en détecte des modèles pour prédire les événements futurs. Il divise la ville en tuiles spatiales d'environ 1000 pieds de côté et prédit la criminalité dans ces zones. Les modèles précédents s'appuyaient davantage sur les frontières politiques ou de voisinage traditionnelles. Les résultats du modèle sont basés sur les données de plusieurs villes américaines : Atlanta, Austin, Detroit, Los Angeles, Philadelphie, Portland et San Francisco.
Une étude de chercheurs de l'université américaine privée à but non lucratif de Harrisburg restera dans les annales pour sa suppression en ligne après publication. Sa conclusion de façon ramassée était qu’un logiciel peut prédire qu’un tiers sera criminel avec une précision de 80 % et sans biais racial, ce, rien qu’en s’appuyant sur sa photo. Le communiqué, qui avait commencé à être partagé sur Twitter, avait attiré un afflux important de contradicteurs. « L'étude a été retirée du site web à la demande de la faculté impliquée dans la recherche. Elle travaille sur une mise à jour du document afin de répondre aux préoccupations soulevées », avait indiqué le communiqué y relatif. La mise à jour reste attendue.
En 2016, une équipe de recherche de la Jiao Tong University de Shanghai publiait son étude liant criminalité et caractéristiques faciales des individus. Dans les chiffres, l’étude rapporte que le système est capable de détecter avec une précision de 90 % qui est le plus susceptible d’être un criminel, ce, sans biais.
La phase d’entraînement de l’intelligence artificielle de l’université chinoise s’est faite avec plus de mille clichés d’individus tirés de cartes d’identité nationales dont sept cents appartenaient à des criminels reconnus. Il est peut-être là le problème avec ces systèmes. En effet, une étude de chercheurs du MIT montre que la création d’une intelligence artificielle psychopathe tient à une chose essentielle : la nourrir d’images ultras violentes lors du processus d’entraînement. C’est une illustration du problème de biais des données fournies aux intelligences artificielles qui semble être la raison profonde des controverses que l’on observe. Si l’on inverse le regard sur les taux de précision, il faut dire qu’il y a 10 à 20 % de faux positifs en fonction des résultats de l’université auxquels on fait allusion. C’est un problème quand on sait que cela représente un paquet de personnes susceptibles d’être accusées à tort comme l'ont été des membres du Congrès des USA par une intelligence artificielle. C’est la raison pour laquelle les organisations de défense des droits de l’Homme formulent des inquiétudes.
Source : Etude
Et vous ?
Doit-on se fier aux algorithmes pour prédire où les crimes peuvent se produire ou pour savoir qui peut être criminel compte tenu des avancées actuelles en matière de technologie ?
Dans quelles situations peut-il être intéressant de mettre de tels algorithmes à contribution ?
Voir aussi :
Reconnaissance faciale : le chef de la police de Detroit admet un taux d'erreur de 96 %. La police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie
L'utilisation de la reconnaissance faciale par la police viole les droits de l'homme, selon un tribunal britannique. Cependant, la Cour n'a pas complètement interdit l'utilisation de la technologie
81 % des suspects signalés par la technologie de reconnaissance faciale de la police du Grand Londres sont innocents, selon un rapport
USA : Portland adopte l'interdiction de la reconnaissance faciale la plus stricte à ce jour dans le pays, bannissant l'utilisation publique et privée de la technologie