IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Clearview AI a tenté d'acheter des numéros de sécurité sociale et des photos d'identité judiciaire pour les incorporer à la base de données de son logiciel controversé de reconnaissance faciale

Le , par Mathis Lucas

52PARTAGES

7  0 
Clearview AI a tenté d'acheter des numéros de sécurité sociale et des photos d'identité judiciaire pour les incorporer à la base de données de son logiciel controversé de reconnaissance faciale

Un nouveau rapport accablant vient éclabousser l'entreprise controversée de reconnaissance faciale Clearview AI. Elle a tenté d'acheter des centaines de millions de dossiers d'arrestation, dont des numéros de sécurité sociale, des photos d'agressions et même des adresses électroniques, afin de les incorporer à son produit. Bien que l'accord ait échoué, Clearview AI a dépensé à cette fin près d'un million de dollars pour 690 millions de dossiers d'arrestation et 390 millions de photos d'arrestation provenant des 50 États américains. Les pratiques de Clearview AI ont suscité un tollé international et l'entreprise a déjà été condamnée en France, en Italie, etc.

Clearview AI : un logiciel conçu sur la base d'une violation massive de la privée

Clearview AI est une société américaine spécialisée dans la reconnaissance faciale. L'entreprise vend un logiciel basé sur une technologie qu'elle développe, permettant de rechercher un visage dans une base de données de plus de dix milliards d'images, obtenues illégalement par le biais du scraping Web. Clearview AI suscite la controverse et a fait l'objet de diverses enquêtes depuis 2020, notamment autour de la menace qu'elle fait peser sur la vie privée.

Depuis sans création, en 2027, Clearview AI a collecté des milliards de photos sur des plateformes de médias sociaux tels que Facebook, LinkedIn et d'autres, à l'insu des utilisateurs, et a vendu l'accès à son logiciel controversé de reconnaissance faciale aux forces de l'ordre de nombreux pays, dont les États-Unis. De nouveaux documents divulgués, et obtenus par 404 Media, lèvent peu plus le voile sur la manière dont Clearview AI collecte ces données.


Ils révèlent que « Clearview AI a dépensé près d'un million de dollars pour acheter à une société de renseignement 690 millions de dossiers d'arrestation et 390 millions de photos d'arrestation provenant des 50 États ». Clearview AI a tenté d'acheter ces données à Investigative Consultant inc. (ICI).

Investigative Consultant se présente comme une société de renseignement ayant accès à des dizaines de milliers de bases de données et capable de créer des flux de données uniques pour ses clients. Le contrat décrit les dossiers comme comprenant les adresses actuelles et antérieures des personnes, les dates de naissance, les photos d'arrestation, les numéros de sécurité sociale et de téléphone portable, les adresses électroniques, et bien d'autres encore.

Le contrat a été signé à la mi-2019, alors que Clearview AI collectait discrètement des milliards de photos sur Internet et était relativement peu connue à l'époque. En fin de compte, l'ensemble de l'accord a échoué après que Clearview AI et Investigative Consultant se sont opposés sur l'utilité des données.

Chaque société a déposé des réclamations pour rupture de contrat. Le différend a été soumis à un arbitrage, où il est courant que les litiges soient réglés de manière privée. L'arbitre s'est rangé du côté de Clearview AI en 2024 et a ordonné à Investigative Consultant de restituer l'argent du contrat.

À ce jour, Investigative Consultant n'a pas payé Clearview AI, et ce dernier cherche à obtenir une décision de justice pour faire appliquer la décision de l'arbitre. Le président d'Investigative Consultant, Donald Berlin, a déjà été accusé dans un procès de fabrication de rapports de renseignement et de diffamation.

Clearview AI revendique une base de données de plus de 50 milliards d'images

À l'heure actuelle, Clearview AI annonce à ses clients que « sa technologie comprend la plus grande base de données connue de plus de 50 milliards d'images faciales provenant de sources Web exclusivement publiques », dont les médias d'information, les sites de photos d'identité, les médias sociaux publics et de nombreuses autres sources ouvertes. C'est une évolution substantielle par rapport à l'estimation de dix milliards d'images d'il y a quelques années.

Les documents judiciaires qui ont fait l'objet de fuite montrent que pendant que Clearview AI construisait « une gigantesque base de données d'images », il tentait simultanément d'acheter des informations sensibles telles que des numéros de sécurité sociale, des adresses électroniques ou d'autres données. Aux États-Unis comme à l'étranger, Clearview AI a fait l'objet d'un examen minutieux pour avoir collecté des images sur des sites de médias sociaux.

Selon un rapport d'investisseur examiné par le Washington Post, Clearview AI a déclaré qu'il espérait collecter suffisamment d'images « pour s'assurer que presque tout le monde dans le monde sera identifiable ». L'entreprise n'entend pas céder face aux menaces de poursuites judiciaires et à l'indignation populaire.

Le rapport du Washington Post décrit Clearview AI comme ayant dépensé des millions de dollars pour l'achat de données, mais les documents judiciaires examinés par 404 Media ne permettent pas de savoir clairement si l'achat de numéros de sécurité sociale faisait partie des mêmes plans.

Clearview AI introduit des risques importants pour la protection de la vie privée

Selon de nombreux experts, l'achat de photos pour un système de reconnaissance faciale présente de sérieux risques pour la vie privée. Jeramie Scott, avocat-conseil et directeur du projet de surveillance de l'EPIC, alerte sur les dangers potentiels des pratiques de Clearview AI. Il souligne à la fois les biais algorithmiques intégrés dans les systèmes de reconnaissance faciale et le risque de biais humains de la part des policiers qui examineraient les images.

De nombreux innocents ont été arrêtés sur la base d'une technologie de reconnaissance faciale qui les identifiait mal. Il s'agit presque exclusivement de Noirs, en partie parce que la technologie est moins précise sur les visages noirs et bruns. Ces cas ont été largement documentés aux États-Unis.

Citation Envoyé par Jeramie Scott


Si les résultats de recherche de Clearview AI ne renvoient pas seulement les données issues de sa recherche sur le Web, mais relient également les individus à leurs photos d'identité supposées et à des données connexes, les évaluateurs humains seront biaisés.

Lorsque l'on consulte les résultats de recherche de Clearview AI et que l'on voit plusieurs occurrences, l'examinateur aura probablement un préjugé favorable à l'égard de la personne dont la photo a été prise, ce qui aura un impact disproportionné sur les personnes noires et brunes, qui sont surreprésentées dans notre système de justice pénale.

L'achat de données strictement personnelles, telles que les numéros de sécurité sociale et les données de localisation, a attiré l'attention des régulateurs et du Congrès. Il est facile d'accéder à des données personnelles en ligne et les autorités accusent certains vendeurs de données d'avoir commis des délits.

Le ministère américain de la Justice a déjà saisi des sites Web liés à l'achat de numéros de sécurité sociale et d'autres données personnelles en ligne et a condamné un ressortissant ukrainien pour avoir exploité ces sites. En fin de compte, Clearview AI est confrontée à un avenir incertain après une avalanche de poursuites judiciaires contre l'entreprise et d'amendes imposées par les régulateurs du monde entier, en France, en Australie, et ailleurs.

La CNIL a condamné Clearview AI à verser une amende de 20 millions d'euros

En France, la Commission nationale de l'informatique et des libertés (CNIL) a jugé en 2021 que Clearview AI traitait illégalement des données personnelles et a ordonné à l'entreprise d'y mettre fin en décembre 2021. Cependant, en octobre 2022, le gendarme français du numérique a rapporté que l'entreprise américaine de reconnaissance faciale n'avait toujours pas répondu à sa mise en demeure, ce qui lui a valu une amende de 20 millions d'euros.

La CNIL a mis en demeure Clearview AI, qui doit cesser la réutilisation de photographies accessibles sur Internet. À partir de mai 2020, la CNIL a reçu des plaintes de particuliers au sujet du logiciel de reconnaissance faciale de Clearview AI et a ouvert une enquête. En mai 2021, l'association Privacy International a également alerté la CNIL sur cette pratique. L'association a souligné les risques pour la sécurité des personnes dont les photos sont collectées.

La CNIL a coopéré avec ses homologues européens pour partager le résultat des investigations, chaque autorité étant compétente pour agir sur son propre territoire en raison du fait que Clearview AI ne dispose pas d'un siège social en Europe. La CNIL a tiré les conclusions suivantes :

  1. un traitement illicite de données personnelles (manquement à l’article 6 du règlement général sur la protection des données (RGPD) de l'Union européenne), car la collecte et l'utilisation des données biométriques s'effectuent sans une base légale ;
  2. l'absence de prise en compte satisfaisante et effective des droits des personnes, notamment des demandes d'accès à leurs données (articles 12, 15 et 17 du RGPD).


À la suite d'une mise en demeure restée sans réponse, la CNIL a prononcé une sanction de 20 millions d'euros. En Italie, l'autorité italienne chargée de la protection des données (Garante per la Protezione dei Dati Personali) a également infligé une amende de 20 millions d'euros à Clearview AI.

Le régulateur italien a également sommé Clearview AI de supprimer toutes les données qu'il détient sur les ressortissants italiens. « Les conclusions ont révélé que les données personnelles détenues par l'entreprise, y compris les données biométriques et de géolocalisation, sont traitées illégalement, sans base légale adéquate, ce qui ne peut certainement pas être l'intérêt légitime de l'entreprise américaine », a déclaré la Garante dans un communiqué.

Même son de cloche aux Pays-Bas où Clearview AI s'est vu infliger en 2024 une amende de 30,5 millions d'euros pour violation du RGPD. Le régulateur néerlandais envisage de tenir les dirigeants personnellement responsables, en raison de la collecte illégale de données à des fins de reconnaissance faciale.

Source : documents judiciaires

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

La France somme Clearview AI, l'entreprise américaine spécialisée dans la reconnaissance faciale, de supprimer ses données, elle dispose d'un délai de deux mois pour respecter les injonctions

Clearview AI a reçu l'ordre de supprimer toutes les données de reconnaissance faciale appartenant à des Australiens, l'entreprise aurait violé la loi australienne sur la protection de la vie privée

Clearview AI utilise vos photos en ligne pour vous identifier instantanément. C'est un problème, d'après un procès intenté par des militants des libertés civiles
Vous avez lu gratuitement 475 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !