Clearview AI est une entreprise travaillant dans le domaine de l'intelligence artificielle qui a mis au point Clearview, une application de reconnaissance faciale. Elle décrit son application comme un nouvel outil de recherche utilisé par les organismes judiciaires pour identifier les auteurs et les victimes de crime. « La technologie de Clearview a aidé les forces de l'ordre à traquer des centaines de criminels en général, notamment des pédophiles, des terroristes et des trafiquants sexuels », indique la description de l'application de reconnaissance faciale de Clearview AI. Son fonctionnement est simple.
Selon l'entreprise, il suffit de prendre une photo d'une personne, de la télécharger dans Clearview et vous verrez ensuite des photos publiques de cette personne, ainsi que des liens vers l'endroit où ces photos sont apparues. Le système s'appuierait sur une base de données de plus de 10 milliards d'images que Clearview prétend avoir récupérées sur Facebook, YouTube, Venmo et des millions d'autres sites Web. Mais les techniques de l'entreprise sont de plus en plus décriées. La méthode de collecte de données de Clearview AI a déjà fait l'objet de nombreuses controverses au cours de ces trois dernières années.
En février dernier, les régulateurs canadiens ont déclaré que l'extraction des visages par Clearview est "illégale" et crée un système qui « inflige un préjudice général à tous les membres de la société, qui se retrouvent continuellement dans une séance d'identification par la police ». La police suédoise a déjà été condamnée à une amende par le régulateur des données du pays pour avoir utilisé les offres de Clearview AI. En 2020, les autorités australiennes ont ouvert une enquête sur la protection de la vie privée concernant les moyens d'extraction de données utilisées par la société.
La technologie de Clearview AI a été testée par la police fédérale australienne (AFP) entre octobre 2019 et mars 2020. Ainsi, après le Canada, c'est au tour de l'Australie de constater que Clearview AI a enfreint les lois nationales sur la protection de la vie privée. Dans une déclaration faite aujourd'hui, la commissaire à l'information et à la protection de la vie privée d'Australie (OAIC), Angelene Falk, a déclaré que l'outil de reconnaissance faciale de Clearview AI avait enfreint la loi de 1988 sur la protection de la vie privée du pays qui sanctionne les comportements suivants :
- collecte des informations sensibles des Australiens sans leur consentement ;
- collecte des informations personnelles par des moyens déloyaux ;
- ne pas prendre de mesures raisonnables pour informer les personnes de la collecte d'informations personnelles ;
- ne pas prendre des mesures raisonnables pour s'assurer que les informations personnelles qu'il a divulguées étaient exactes, compte tenu du but de la divulgation ;
- ne pas prendre des mesures raisonnables pour mettre en œuvre des pratiques, des procédures et des systèmes pour assurer la conformité aux principes australiens de protection de la vie privée.
« La collecte secrète de ce type d'informations sensibles est déraisonnablement intrusive et injuste. Elle comporte un risque important de préjudice pour les personnes, y compris les groupes vulnérables tels que les enfants et les victimes de crimes, dont les images peuvent être recherchées dans la base de données de Clearview AI. Lorsque les Australiens utilisent les médias sociaux ou les sites de réseautage professionnel, ils ne s'attendent pas à ce que leurs images faciales soient collectées sans leur consentement par une entité commerciale afin de créer des modèles biométriques à des fins d'identification totalement étrangères », a déclaré Falk.
« Le grattage aveugle des images faciales des gens, dont seule une fraction serait peut-être liée à des enquêtes des forces de l'ordre, peut avoir un impact négatif sur les libertés personnelles de tous les Australiens qui se perçoivent comme étant sous surveillance », a-t-elle poursuivi. Dans ce qui semble être une victoire majeure pour la protection de la vie privée en Australie, le régulateur a ordonné à Clearview de cesser de collecter les données biométriques faciales et les modèles biométriques des Australiens et de détruire toutes les images et tous les modèles existants qu'elle détient.
L'enquête de l'OAIC sur les pratiques de Clearview a été menée conjointement avec l'Information Commissioner's Office (ICO) du Royaume-Uni. Toutefois, l'ICO n'a pas encore pris de décision quant à la légalité du travail de Clearview au Royaume-Uni. L'ICO indique qu'il "étudie les prochaines étapes et toute action réglementaire formelle qui pourraient être appropriées en vertu des lois britanniques sur la protection des données". De son côté, Clearview AI a l'intention de faire appel de la décision. « Clearview AI opère légitimement selon les lois de ses lieux d'activité », a déclaré Mark Love, un avocat du cabinet BAL Lawyers représentant Clearview.
« Non seulement la décision de la commissaire montre qu'elle n'a pas compris le mode de fonctionnement de Clearview AI, mais elle n'est pas compétente. Clearview AI n'a violé aucune loi et n'a pas porté atteinte à la vie privée des Australiens. Clearview AI ne fait pas d'affaires en Australie (et) n'a pas d'utilisateurs australiens », a déclaré Love dans un courriel. En outre, Clearview AI fait valoir que les images qu'elle a collectées étaient accessibles au public.
Ainsi, selon l'entreprise, il n'y a pas eu de violation de la vie privée et qu'elles ont été publiées aux États-Unis, de sorte que la loi australienne ne s'applique pas. Partout dans le monde, cependant, la propagation des systèmes de reconnaissance faciale, qui menacent de supprimer l'anonymat dans les espaces publics, suscite un mécontentement croissant.
Mardi, Meta, la société mère de Facebook, a annoncé qu'elle fermait le système de reconnaissance faciale de la plateforme sociale et supprimait les modèles de visage qu'elle avait créés pour le système. La société a invoqué "des préoccupations croissantes concernant l'utilisation de cette technologie dans son ensemble". Meta a également payé récemment un règlement de 650 millions de dollars après que la technologie a été jugée comme ayant violé les lois sur la vie privée dans l'Illinois aux États-Unis.
Source : Australian Information Commissioner (OAIC)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du modèle économique de Clearview AI ?
L'entreprise a-t-elle raison lorsqu'elle affirme qu'elle n'enfreint pas la loi ?
Que pensez-vous de la décision des régulateurs australiens ?
Peut-elle s'appliquer alors que Clearview AI est enregistré aux États-Unis ?
Voir aussi
L'utilisation de la technologie de reconnaissance faciale de Clearview AI a augmenté de 26 % après le siège du Capitole, les forces de l'ordre s'en servent pour traquer les émeutiers
Clearview AI fait l'objet de plaintes en justice en France et dans d'autres pays de l'UE pour sa collecte controversée de visages, cela violerait les lois européennes sur la protection des données
Clearview AI utilise vos photos en ligne pour vous identifier instantanément. C'est un problème, d'après un procès intenté par des militants des libertés civiles
La présence des insurgés du Capitole sur les médias sociaux permet au gouvernement fédéral de les identifier facilement, alors que la police locale et le FBI recherchent des informations sur eux