
Les services de police américains utilisent des personnages en ligne générés par l'IA, conçus pour interagir avec des « manifestants universitaires », des militants politiques « radicalisés » et des trafiquants de drogue et d'êtres humains présumés, pour recueillir des renseignements à leur sujet. Massive Blue, l'entreprise new-yorkaise qui vend cette technologie aux services de police, appelle son produit Overwatch, qu'elle présente comme un « multiplicateur de force alimenté par l'IA pour la sécurité publique » qui « déploie des agents virtuels plus vrais que nature, qui infiltrent et engagent des réseaux criminels à travers différents canaux ».
La frénésie de l'intelligence artificielle n'est pas près de s'éteindre. Elle ne fait que s'étendre à d'autres secteurs et être adoptée par un plus grand nombre de personnes et d'institutions. Les entreprises cherchent de plus en plus à intégrer la technologie pour faciliter l'exécution des tâches quotidiennes et banales. Non seulement les géants de la technologie optent de plus en plus pour la technologie, mais aussi les agences gouvernementales.
Il semble désormais que les services de police utilisent également des outils d'IA pour s'infiltrer dans les espaces numériques. Les services de police américains utiliseraient des agents d'IA de type humain qui interagissent avec les individus afin d'attraper les délinquants. Selon des rapports, les services de police créent désormais des agents virtuels plus vrais que nature qui s'infiltrent et dialoguent avec des individus en ligne pour recueillir des preuves.
Alors que nous pensions en avoir vu assez sur l'IA, d'autres initiatives basées sur l'intelligence artificielle sont nouvelles et uniques dans leurs objectifs. Selon un rapport, les forces de l'ordre américaines ont désormais recours à Overwatch, un outil d'IA développé par Massive Blue qui vise à créer des agents virtuels réalistes capables d'entrer en contact avec des individus dans des environnements numériques. Ces bots d'IA sont utilisés pour communiquer directement avec les gens sur les plateformes de médias sociaux et par messagerie texte.
Les agents d'IA interagissent avec les suspects en établissant une relation de confiance et en extrayant des informations qui peuvent potentiellement servir de preuves contre le crime. Tout au long de ce processus, il n'est pas révélé que l'interaction est fausse ou qu'elle est le fait d'organismes chargés de l'application de la loi. Bien que l'objectif de ce personnage d'IA soit de recueillir des preuves et de cibler des délinquants graves tels que les trafiquants d'êtres humains, il semblerait que le système soit également utilisé pour communiquer avec des activistes radicaux ou même des manifestants dans les universités.
Massive Blue proposerait cette technologie aux organismes chargés de l'application de la loi pour plusieurs utilisations clés, notamment la sécurité dans les écoles, la prévention du trafic d'êtres humains, etc. Bien que l'entreprise présente Overwatch comme une solution pour lutter contre la criminalité, il semble qu'aucune arrestation n'ait eu lieu jusqu'à présent sur la base des preuves fournies. Il se peut que les agences gardent les informations confidentielles ou que la technologie soit encore en phase de test.
Bien que les forces de l'ordre aient de plus en plus tendance à utiliser l'IA pour la surveillance et la sécurité publique, cela soulève des questions quant à la ligne éthique qui pourrait être franchie à la suite d'une adoption plus large, en particulier si la technologie est utilisée contre des manifestants et des activistes.
Ce rapport confirme que l'IA sera un outil de plus en plus utilisé par les forces de l'ordre. Cela rappelle notamment l'annonce de l'Argentine en août 2024. Le président argentin Javier Milei avait créé une unité de sécurité qui utiliserait l'IA pour prédire les crimes futurs et aider à les prévenir. L'unité de la police utiliserait des algorithmes d'apprentissage automatique pour analyser les données criminelles historiques afin de prédire les crimes futurs.
Elle devrait en outre déployer des logiciels de reconnaissance faciale pour identifier les personnes recherchées, patrouiller sur les médias sociaux et analyser en temps réel les images des caméras de sécurité pour détecter les activités suspectes. Mais l'initiative avait suscité de vives inquiétudes et les experts mettaient en garde contre les violations de la vie privée et les biais de la technologie.
À titre de preuve, un rapport du Washington Post en janvier 2025 a révélé que les forces de l'ordre à travers les États-Unis utilisaient à mauvais escient des logiciels de reconnaissance faciale alimentés par l'IA, ce qui a conduit à des arrestations injustifiées sans preuve corroborante. L'enquête a révélé que 15 des 23 services de police ont examiné des suspects arrêtés en se basant uniquement sur les correspondances de l'IA, souvent en contradiction avec leurs propres politiques exigeant des preuves indépendantes.
Dans certains cas, la police a considéré les suggestions de l'IA comme définitives, un rapport citant un résultat de l'IA non corroboré comme une "correspondance à 100 %". Cette mauvaise utilisation de la technologie a entraîné au moins huit arrestations injustifiées, dont celle de Christopher Gatlin, qui a mis plus de deux ans à se disculper après avoir été mal identifié. Un autre cas, en 2023, la police de Louisiane se serait appuyée sur une fausse correspondance de reconnaissance faciale pour obtenir des mandats d'arrêt contre un homme noir pour des vols qu'il n'a pas commis. Randal Reid, 28 ans, est resté en prison pendant près d'une semaine après que la fausse correspondance ait conduit à son arrestation.
Sources : Massive Blue, Wired, 404 Media
Et vous ?


Voir aussi :



Vous avez lu gratuitement 5 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.