Le métro de Londres a mené des tests d'outils de surveillance basés sur l'intelligence artificielle (IA) pour détecter les délits en temps réel. Pendant une période d'essai de douze mois, 11 algorithmes ont été utilisés pour surveiller les usagers de la station de métro Willesden Green, en combinant l'IA avec des images de vidéosurveillance en direct. Plus de 44 000 alertes ont été émises, signalant des comportements agressifs, des armes potentielles, des personnes tombant sur les voies, ou des fraudes tarifaires. Les documents révèlent des erreurs du système, suscitant des inquiétudes quant à la précision des algorithmes et aux questions de vie privée. Bien que l'essai ait visé à améliorer la sécurité, des experts soulignent la nécessité de réglementations et de consultations publiques transparentes pour l'utilisation de telles technologies dans les espaces publics.
Des documents expliquent comment Transport for London (TfL), qui exploite le réseau de métro et de bus de la ville, a utilisé un large éventail d'algorithmes de vision par ordinateur pour suivre le comportement des personnes lorsqu'elles se trouvaient dans la station. C'est la première fois que tous les détails de l'essai sont rapportés, et cela fait suite à la déclaration de TfL, en décembre, d'étendre son utilisation de l'IA pour détecter l'évasion tarifaire à d'autres stations de la capitale britannique.
Lors de l'essai à Willesden Green - une station qui accueillait 25 000 visiteurs par jour avant la pandémie de COVID-19 - le système d'IA a été mis en place pour détecter les incidents de sécurité potentiels afin de permettre au personnel d'aider les personnes dans le besoin, mais il a également ciblé les comportements criminels et antisociaux. Trois documents fournis à WIRED expliquent comment les modèles d'IA ont été utilisés pour détecter les fauteuils roulants, les poussettes, les vapoteurs, les personnes accédant à des zones non autorisées ou se mettant en danger en s'approchant du bord des quais de gare.
Les documents, qui sont partiellement nettoyés, montrent également que l'IA a commis des erreurs au cours de l'essai, par exemple en signalant les enfants qui suivaient leurs parents à travers les barrières de billets comme des fraudeurs potentiels, ou en n'étant pas capable de faire la différence entre un vélo pliant et un vélo non pliant. Des policiers ont également participé à l'essai en tenant une machette et un pistolet sous les yeux des caméras de vidéosurveillance, alors que la gare était fermée, afin d'aider le système à mieux détecter les armes.
Les experts en protection de la vie privée qui ont examiné les documents mettent en doute la précision des algorithmes de détection d'objets. Ils affirment également que l'on ne sait pas exactement combien de personnes étaient au courant de l'essai, et préviennent que ces systèmes de surveillance pourraient facilement être étendus à l'avenir pour inclure des systèmes de détection plus sophistiqués ou des logiciels de reconnaissance faciale qui tentent d'identifier des individus spécifiques.
« Bien que cet essai n'ait pas porté sur la reconnaissance faciale, l'utilisation de l'IA dans un espace public pour identifier des comportements, analyser le langage corporel et déduire des caractéristiques protégées soulève un grand nombre des mêmes questions scientifiques, éthiques, juridiques et sociétales que celles posées par les technologies de reconnaissance faciale », déclare Michael Birtwistle, directeur associé de l'Institut Ada Lovelace, un institut de recherche indépendant.
La nouvelle frontière de la surveillance : intelligence artificielle, drones et reconnaissance faciale
Ces dernières années, l'utilisation de l'IA dans les espaces publics pour détecter les comportements, les mouvements ou les identités des personnes s'est accrue, souvent sous le couvert d'approches de villes intelligentes. En juillet de l'année dernière, des rapports ont révélé que plusieurs stations de métro de la ville de New York utilisaient l'IA pour détecter les fraudes.
La police aux États-Unis semble devenir l'un des principaux clients des entreprises de la Silicon Valley spécialisées dans le développement d'outils de surveillance. Des rapports indiquent une augmentation de l'utilisation de technologies d'espionnage, notamment des drones-espions, par les forces de l'ordre américaines. Selon une nouvelle enquête de la Northwestern Pritzker School of Law, environ 25 % des services de police ont actuellement recours à ces technologies.
Ces dispositifs de surveillance sont fournis par des entreprises technologiques financées par des sociétés de capital-risque renommées à l'échelle mondiale. Les experts expriment leur préoccupation face à l'accroissement de la surveillance gouvernementale. La vente d'équipements de renseignement, de surveillance et d'espionnage à l'armée et aux forces de l'ordre gagne en popularité parmi les entreprises et les start-ups technologiques de la Silicon Valley.
Cette tendance, selon les analystes et les défenseurs des droits de l'homme, renforce le contrôle des États et du gouvernement fédéral américains sur les citoyens. Ces équipements comprennent des drones de surveillance dotés d'intelligence artificielle, des robots autonomes patrouilleurs, des programmes de reconnaissance faciale, etc.
Certains analystes trouvent étrange que la Silicon Valley soutienne les forces de l'ordre américaines dans leurs activités d'espionnage, étant donné que cela semble en contradiction avec les valeurs libertaires prônées par de nombreuses personnalités de la technologie qui ont grandi avec les débuts d'Internet. Bien que la Silicon Valley ait initialement fourni des composants à l'industrie militaire américaine dans les années 1950, ses relations avec l'État se sont tendues au fil du temps, passant des missiles autoguidés au commerce électronique et aux iPhones. Cependant, la situation semble évoluer actuellement.
En 2019, des chercheurs chinois ont mis au point une caméra de 500 mégapixels dotée d'intelligence artificielle, capable d'identifier un visage au sein d'une foule de plusieurs milliers de personnes dans des environnements tels que les rues ou les stades, selon un rapport du quotidien britannique The Telegraph. Cette nouvelle technologie, présentée lors de la foire industrielle internationale de la Chine la semaine dernière, peut être intégrée à des systèmes de reconnaissance faciale et de surveillance en temps réel.
La caméra de reconnaissance faciale, surnommée la « super caméra », offre une résolution quatre fois plus détaillée que l'œil humain et peut se connecter à d'autres appareils, expliquent les scientifiques. Grâce à son intelligence artificielle, la caméra est capable de scanner les détails faciaux de chaque individu et de détecter instantanément des cibles spécifiques au sein d'une foule importante. Cette avancée suscite des inquiétudes quant à l'atteinte possible d'un niveau critique dans la surveillance par reconnaissance faciale. Xiaoyang Zeng, l'un des chercheurs impliqués dans cette nouvelle technologie, a également souligné que l'appareil peut capturer des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Pour ou contre l’utilisation de la reconnaissance faciale ?