Le Surveillance Technology Oversight Project, une organisation à but non lucratif dédiée à la lutte contre la surveillance de masse et à la protection de la vie privée, a publié des versions expurgées des contrats du NYPD avec Voyager Labs, qui montrent que le département a signé un contrat de près de 9 millions de dollars avec l’entreprise en 2018.
Voyager Labs, dont le siège est en Israël, se présente comme un service « d'enquêtes alimentées par l'IA » qui collecte des données à partir de « milliards de "pixels humains" et de signaux » et utilise l'intelligence artificielle pour cartographier les relations, suivre les emplacements géographiques et fournir d'autres données personnelles aux « agences chargées de la sécurité publique ».
« En tirant parti de ce vaste océan de données, ils peuvent obtenir des informations exploitables sur des individus, des groupes et des sujets, puis plonger en profondeur pour en découvrir encore plus », ont écrit les responsables de l'entreprise dans des documents marketing joints à la plainte Meta. Le slogan sur le papier à en-tête de Voyager Labs est : « Mettre en lumière l'individualité ».
Si l’utilisation des analyses des réseaux sociaux par les forces de l’ordre n’est pas nouvelle, Voyager Labs affirme que ses produits sont capables de plus que de la surveillance. L’entreprise a prétendu que ses produits pouvaient également prédire les crimes futurs, selon une enquête du Brennan Center for Justice, un institut de droit et de politique publique.
« Voyager Discover va plus loin que les capacités de Voyager Analytics, en analysant non seulement qui est le plus influent mais aussi qui est le plus investi dans une position donnée : émotionnellement, idéologiquement et personnellement », dit un argumentaire de vente de Voyager Labs au Los Angeles Police Department, obtenu par le Brennan Center for Justice. « Cette capacité permet de passer de ceux qui sont les plus engagés en ligne à ceux qui sont les plus engagés dans leur cœur ».
Voyager Labs a également affirmé que son IA pouvait attribuer des scores de risque aux utilisateurs des réseaux sociaux concernant leurs « liens ou leur affinité pour le fondamentalisme ou l’extrémisme islamique », selon le rapport du Brennan Center for Justice.
Un autre de ses produits, Voyager Check, « fournit une indication automatisée des individus qui peuvent présenter un risque », selon le site web de Voyager Labs.
Une utilisation « invasive » et « alarmante »
Will Owen, directeur de la communication du Surveillance Technology Oversight Project, a qualifié l’utilisation de ces produits « d’invasive » et « d’alarmante » dans un communiqué de presse.
Envoyé par Will Owen
Envoyé par Will Owen
En outre, les produits de Voyager Labs peuvent violer la vie privée des utilisateurs des réseaux sociaux, en collectant et en analysant des données personnelles sans leur consentement ni leur connaissance. Le rapport du Surveillance Technology Oversight Project souligne que le NYPD n’a pas divulgué publiquement son utilisation des produits de Voyager Labs, ni établi de politiques claires sur la façon dont il les utilise.
Le rapport appelle le NYPD à mettre fin à son contrat avec Voyager Labs et à cesser d’utiliser ses produits. Il demande également au conseil municipal de New York d’adopter une loi qui interdirait au NYPD d’utiliser toute technologie qui prétend prédire les crimes ou attribuer des scores de risque aux individus.
« La police de New York ne devrait pas utiliser l’IA pour espionner les New-Yorkais, encore moins pour prédire qui va commettre un crime », a déclaré Albert Fox Cahn, directeur exécutif du Surveillance Technology Oversight Project, dans un communiqué de presse. « Nous avons besoin d’une interdiction totale de la police prédictive à New York ».
La réaction de Voyager Labs et de la police de New-York
William Colston, vice-président du marketing mondial chez Voyager Labs, a déclaré que la société utilise uniquement des données accessibles au public et que son logiciel « n'est pas destiné à se substituer à une surveillance et une analyse humaines rigoureuses ».
« Nous rejetons catégoriquement toute idée selon laquelle notre logiciel serait conçu pour porter atteinte aux libertés civiles ou à la liberté d'expression, ou qu'il serait biaisé de quelque manière que ce soit », a écrit Colston.
Un porte-parole du NYPD a déclaré que le département utilise le logiciel pour surveiller les suspects pour divers crimes - comme la violence armée, le terrorisme et la traite des êtres humains - mais a précisé qu’il n’utilise pas actuellement les outils prédictifs que Voyager Labs propose. « Le ministère utilise ce type de technologies pour faciliter les enquêtes actives et n'utilise pas de fonctionnalités qui seraient décrites comme prédictives d'une criminalité future », a assuré le porte-parole.
Meta a porté plainte à Voyager Labs en janvier pour web scrapping
Meta a déclaré qu'il poursuivait Voyager Labs pour avoir prétendument utilisé de faux comptes, des logiciels propriétaires et un réseau tentaculaire d'adresses IP pour collecter subrepticement d'énormes quantités de données personnelles auprès des utilisateurs de Facebook, Instagram, Twitter et d'autres réseaux sociaux ou sites de mise en réseau.
« Le défendeur a créé et utilisé plus de 38 000 faux comptes d'utilisateurs Facebook et son logiciel de surveillance pour récupérer les informations de profil visibles de plus de 600 000 utilisateurs de Facebook, y compris les publications, les goûts, les listes d'amis, les photos et les commentaires, ainsi que les informations des groupes et pages Facebook », ont déclaré les avocats dans la plainte de Meta. « Le défendeur a conçu le logiciel de surveillance pour dissimuler sa présence et son activité à Meta et à d'autres, et a vendu et concédé sous licence à des fins lucratives les données qu'il a récupérées ».
Dans l'annonce du procès, Jessica Romero, Meta Director of Platform Enforcement and Litigation, a écrit :
Voyager a développé et utilisé un logiciel propriétaire pour lancer des campagnes de scraping sur Facebook et Instagram, et des sites Web tels que Twitter, YouTube, LinkedIn et Telegram. Voyager a conçu son logiciel de scraping pour utiliser de faux comptes afin de scraper les données accessibles à un utilisateur lorsqu'il est connecté à Facebook, y compris les informations de profil des utilisateurs, les publications, les listes d'amis, les photos et les commentaires. Voyager a utilisé un système diversifié d'ordinateurs et de réseaux dans différents pays pour cacher son activité, y compris lorsque Meta a soumis les faux comptes à des vérifications ou des contrôles. Voyager n'a pas compromis Facebook, mais a plutôt utilisé de faux comptes pour récupérer des informations accessibles au public.
Notre action en justice allègue que Voyager a violé nos conditions d'utilisation contre les faux comptes et le scraping non autorisé et automatisé. Nous recherchons une injonction permanente contre Voyager pour protéger les personnes contre les services de scraping. Des entreprises comme Voyager font partie d'une industrie qui fournit des services de scraping à n'importe qui, quels que soient les utilisateurs qu'ils ciblent et indépendamment du but, y compris comme moyen de profiler les personnes pour un comportement criminel. Cette industrie collecte secrètement des informations que les gens partagent avec leur communauté, leur famille et leurs amis, sans surveillance ni responsabilité, et d'une manière qui peut impliquer les droits civils des personnes.
Notre action en justice allègue que Voyager a violé nos conditions d'utilisation contre les faux comptes et le scraping non autorisé et automatisé. Nous recherchons une injonction permanente contre Voyager pour protéger les personnes contre les services de scraping. Des entreprises comme Voyager font partie d'une industrie qui fournit des services de scraping à n'importe qui, quels que soient les utilisateurs qu'ils ciblent et indépendamment du but, y compris comme moyen de profiler les personnes pour un comportement criminel. Cette industrie collecte secrètement des informations que les gens partagent avec leur communauté, leur famille et leurs amis, sans surveillance ni responsabilité, et d'une manière qui peut impliquer les droits civils des personnes.
« Si Meta s'engage réellement à protéger ses utilisateurs et à agir dans l'intérêt public, alors l'utilisation de logiciels analytiques par ceux qui tentent d'arrêter les acteurs malveillants devrait être adoptée et encouragée », a écrit Colston.
Sources : Voyager Labs, rapport du Surveillance Technology Oversight Project, William Owen
Et vous ?
Croyez-vous les déclarations de la police lorsqu'elle reconnaît utiliser les services de Voyager Labs, après avoir omis de le mentionner pendant des années, mais prétend ne pas utiliser ses fonctionnalités de prédiction de crimes ?
Que pensez-vous de l’utilisation de l’IA par la police pour surveiller les réseaux sociaux et prédire les crimes ?
Quels sont les risques et les bénéfices potentiels de cette technologie pour la sécurité publique et la justice ?
Comment protéger la vie privée et les droits des utilisateurs des réseaux sociaux face à la surveillance de masse ?
Voir aussi :
La France bannit les IA de prédiction des comportements des juges, les technologies de justice prédictive sont-elles une menace pour la société ?
L'administration Trump se tourne vers Palantir, l'entreprise controversée de Peter Thiel, afin de construire un dispositif pour traquer le covid-19, l'outil se nomme HHS Protect Now
Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort
L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ? Oui, selon un expert