Au Canada, le sujet est un peu controversé. En effet, la police canadienne se sert de plus en plus d'algorithmes pour prédire où les crimes pourraient se produire, qui pourraient disparaître, et pour les aider à déterminer où ils devraient patrouiller, malgré les préoccupations fondamentales en matière de droits de l'homme, selon un nouveau rapport.
Surveiller et prédire : une analyse des droits de l'homme de l'utilisation des algorithmes prédictifs par la police au Canada est le résultat d’une enquête menée conjointement par l'International Human Rights Program (IHRP) de l’Université de Toronto et Citizen Lab. Il explique comment « les organismes chargés de l'application de la loi à travers le Canada ont commencé à utiliser, à se procurer, à développer ou à tester une variété de méthodes d'algorithmes », avec des conséquences potentiellement désastreuses pour les libertés civiles, la vie privée et d'autres droits garantis par la Déclaration universelle des droits de l'homme, préviennent les auteurs.
En guise d'introduction, les auteurs expliquent : « Algorithmic policing (ndlr police algorithmique) est un domaine de développement technologique qui, en théorie, est conçu pour permettre aux forces de l'ordre d'automatiser la surveillance ou de tirer des inférences grâce à l'utilisation d'un traitement de masse de données dans l'espoir de prédire une activité criminelle potentielle. Ce dernier type de technologie et les méthodes de maintien de l'ordre qui en découlent sont souvent appelés "police prédictive". Les méthodes de police algorithmiques reposent souvent sur l'agrégation et l'analyse de volumes massifs de données, telles que des informations personnelles, des données de communication, des données biométriques, des données de géolocalisation, des images, du contenu sur les réseaux sociaux et des données de police (telles que des statistiques basées sur des arrestations par la police ou des casiers judiciaires. ). »
Le rapport décrit comment la police utilise ou envisage l'utilisation d'algorithmes à plusieurs fins, y compris la police prédictive, qui s'appuie entre autres sur l'historique des données policières pour prédire où un crime se produira à l'avenir. À l'heure actuelle au Canada, la police utilise des algorithmes pour analyser les données sur les personnes afin de prédire qui pourrait disparaître et espère se servir un jour de la technologie dans d'autres domaines du système de justice pénale. Certains services de police utilisent des algorithmes pour automatiser la collecte et l'analyse de masse de données publiques, y compris les publications sur les réseaux sociaux, et pour appliquer la reconnaissance faciale aux bases de données de photos existantes à des fins d'enquête.
Le rapport propose trois catégories à la police algorithmique :
- Les technologies de police algorithmique centrées sur la localisation sont un sous-ensemble de ce que l’on appelle généralement les technologies de « police prédictive ». Cette catégorie de technologies de police algorithmique vise à identifier où et quand une activité criminelle potentielle pourrait se produire. Les algorithmes qui pilotent ces systèmes examinent les corrélations dans les historiques des données policières afin de tenter de faire des prédictions sur un ensemble donné de zones géographiques.
- Les technologies de police algorithmique centrées sur la personne sont également un sous-ensemble des technologies de police prédictive. Les technologies de police algorithmique centrées sur la personne reposent sur l'analyse des données afin de tenter d'identifier les personnes qui sont plus susceptibles d'être impliquées dans une activité criminelle potentielle ou d'évaluer une personne identifiée pour son risque présumé de se livrer à une activité criminelle à l'avenir
- Les technologies de police de surveillance algorithmique, telles que désignées dans ce rapport, n'incluent pas intrinsèquement d'élément prédictif et se distinguent donc des deux catégories ci-dessus (police algorithmique centrée sur la localisation et centrée sur la personne). Les technologies de surveillance algorithmique fournissent plutôt aux services de police des fonctions de surveillance et de contrôle sophistiquées, mais générales. Ces technologies automatisent la collecte et le traitement systématiques des données (telles que les données collectées en ligne ou les images prises à partir d'espaces extérieurs physiques). Certaines de ces technologies (telles que la technologie de reconnaissance faciale qui traite des photos à partir de bases de données de photos) peuvent traiter les données déjà stockées dans les fichiers des services de police d'une nouvelle manière.
« Ces technologies sont présentes ou envisagées partout au Canada sous la forme d'outils de police prédictive et de surveillance algorithmique », indique le rapport.
La police de Vancouver, par exemple, utilise un outil d'apprentissage automatique appelé GeoDASH pour prédire où les effractions pourraient se produire. Le service de police de Calgary (CPS) utilise le logiciel Gotham développé par Palantir pour identifier et visualiser les liens entre les personnes qui interagissent avec la police (y compris les victimes et les témoins) en s'appuyant sur de nombreux critères. Toutefois, un projet Privacy Impact Assessment (PIA) réalisé par le CPS en 2014 et mentionné dans le rapport indiquait que Gotham pouvait « présenter de fausses associations entre des individus innocents et des organisations criminelles et des suspects » et recommandait des mesures pour atténuer le risque que cela se produise, mais toutes les recommandations n'ont pas été implémentées.
Le service de police de Toronto n'utilise actuellement pas d'algorithmes, mais la police collabore avec une entreprise d'analyse de données depuis 2016 dans le but de « développer des modèles algorithmiques qui identifient les zones de criminalité élevée », note le rapport.
Le laboratoire d'analyse prédictive de la police de la Saskatchewan (SPPAL), fondé en 2015, utilise les données fournies par le service de police de Saskatoon pour développer des algorithmes permettant de prédire quels jeunes pourraient disparaître dans la province. Le projet SPPAL est une extension du « modèle Hub » de la police, dans lequel les agences de services sociaux et la police partagent des informations sur des personnes considérées comme « à risque » de comportement criminel ou de victimisation. Le SPPAL espère utiliser des algorithmes pour traiter « les récidivistes et les délinquants violents, la violence domestique, la crise des opioïdes et les personnes atteintes de maladie mentale qui sont entrées en conflit avec le système de justice pénale », indique le rapport.
« Nous avons appris que les Canadiens font maintenant face à une surveillance dans de nombreux aspects de leur vie personnelle, d'une manière que nous n'aurions jamais associée aux pratiques policières traditionnelles », a déclaré Kate Robertson, avocate de la défense pénale et l'une des auteurs du rapport. « Les individus sont désormais confrontés à la perspective que, lorsqu'ils marchent ou conduisent dans la rue, publient sur les réseaux sociaux ou discutent en ligne, la surveillance policière sous la forme d'une surveillance et d'une collecte systématiques de données peut être à l'œuvre », a ajouté Robertson.
Les auteurs notent que les « communautés historiquement défavorisées » courent un risque particulier d'être ciblées pour des besoins de surveillance et d'analyse par la technologie en raison du biais systémique trouvé dans les historiques de données policières.
Dans le rapport, Robertson et ses coauteurs présentent une série de recommandations politiques qui, selon eux, atténueraient certains des dangers potentiels de l'utilisation de ce type de technologie. « À l'heure actuelle, nous en savons trop peu sur les technologies déployées et sur la manière dont elles sont utilisées », a déclaré Robertson. « Il est difficile pour les mécanismes de responsabilisation de fonctionner si la technologie est utilisée en secret. »
Source : rapport
Et vous ?
Que pensez-vous de la police prédictive ?
Que pensez-vous des problèmes soulevés par les auteurs sur l'utilisation de telles méthodes ?
Voir aussi :
Voici pourquoi des centaines de mathématiciens boycottent la technologie de "police prédictive", certains qualifient ces algorithmes de « vernis scientifique pour le racisme »
En 1983, Isaac Asimov, un écrivain de science-fiction, prédisait à quoi ressemblerait le monde en 2019, de la robotisation aux objets connectés, beaucoup de ses prédictions se sont révélées précises
Des chercheurs ont développé un système qui utilise l'IA pour prédire où et quand la foudre frappera, il ferait des prédictions qui se sont avérées exactes 80 % du temps
La France bannit les IA de prédiction des comportements des juges, les technologies de justice prédictive sont-elles une menace pour la société ?