Les technologies de surveillance à distance basées sur l'IA, telles que la reconnaissance faciale, ont d'énormes implications pour les droits et libertés fondamentaux tels que la vie privée, mais elles sont déjà de plus en plus utilisées dans le public en Europe. Pour respecter « la vie privée et la dignité humaine », les députés ont déclaré que les législateurs européens devraient interdire de manière permanente la reconnaissance automatisée des personnes dans les espaces publics, affirmant que les citoyens ne devraient être surveillés que lorsqu'ils sont soupçonnés d'un crime. Le parlement a également appelé à l'interdiction d'utiliser des bases de données privées de reconnaissance faciale – comme le système d'IA controversé créé par la startup américaine Clearview (également déjà utilisé par certaines forces de police en Europe) – et a déclaré qu'une police prédictive basée sur des données comportementales devrait également être interdite. Les députés souhaitent également interdire les systèmes de notation sociale qui cherchent à évaluer la fiabilité des citoyens en fonction de leur comportement ou de leur personnalité.
L’IA est l’une des priorités principales de l’actuelle Commission. La présidente de la Commission, Ursula von der Leyen, a annoncé dans ses orientations politiques une approche européenne coordonnée relative aux implications humaines et éthiques de l’IA, ainsi qu’une réflexion sur une meilleure utilisation des mégadonnées pour promouvoir l’innovation. La reconnaissance de l’IA en tant que dossier à traiter au niveau de l’UE a été accompagnée d’une réflexion sur la manière de garantir la confiance dans les technologies de l’IA et sur la manière de veiller à ce que l’IA ne compromette pas les droits fondamentaux au sein de l’UE.
Il faut noter que le Parlement européen s’est penché sur l’IA plusieurs années avant que la Commission ne décide d’en faire une priorité de premier plan. Plusieurs résolutions sur les mégadonnées, la robotique et l’intelligence artificielle, adoptées par le Parlement depuis 2016, montrent l’importance qu’il accorde à ce sujet. Les résolutions ont porté sur différentes incidences de l’IA et sur la façon dont elle influence le bien-être, l’éducation, la technologie, les droits légaux et fondamentaux, ainsi que l’activité économique dans son ensemble. Ces résolutions ont souligné la nécessité d’adopter une approche « centrée sur l’humain », fondée sur le respect des droits fondamentaux, à savoir la charte de l’UE et le cadre de l’UE en matière de protection des données.
L’IA offre de grandes possibilités également dans le domaine des services répressifs et de la justice pénale, notamment pour améliorer les méthodes de travail des services répressifs et des autorités judiciaires, et pour lutter plus efficacement contre certains types de criminalité, en particulier la criminalité financière, le blanchiment de capitaux et le financement du terrorisme, ainsi que certains types de cybercriminalité. Dans ce secteur, les applications d’IA comprennent notamment les technologies de reconnaissance faciale, la reconnaissance automatique des plaques minéralogiques, l’identification des orateurs, l’identification de la parole, les technologies de lecture sur les lèvres, la surveillance auditive (les algorithmes de détection des coups de feu), la recherche et l’analyse autonomes des bases de données identifiées, les prévisions (police prédictive et analyse des foyers de criminalité), les outils de détection des comportements, les outils autonomes permettant de détecter la fraude financière et le financement du terrorisme, le suivi des médias sociaux (moissonnage et collecte de données pour l’exploration des connexions), les intercepteurs d’IMSI (IMSI-catchers), et les systèmes de surveillance automatique qui comportent différentes possibilités de détection (telles que la détection des battements du cœur et les caméras thermiques). Dans le domaine judiciaire, les outils d’IA peuvent être utilisés pour calculer les probabilités de récidive et pour déterminer la probation ou décider de la peine.
En dépit des avantages apportés par l’IA, le fait est que, parallèlement, l’IA comporte un certain nombre de risques potentiels, tels que l’opacité de la prise de décision, différents types de discrimination, l’intrusion dans notre vie privée, les défis en matière de protection des données à caractère personnel, de la dignité humaine et de la liberté d’expression et d’information. Ces risques potentiels sont aggravés dans le secteur de la répression et de la justice pénale, dans la mesure où ils peuvent porter atteinte à la présomption d’innocence, aux droits fondamentaux à la liberté et à la sûreté de la personne et au droit à un recours effectif et à un procès équitable.
L'établissement de normes
C'est pourquoi en avril, l'exécutif de l'UE a présenté un projet de loi visant à réglementer les utilisations à haut risque de la technologie de l'intelligence artificielle, notamment dans l'utilisation par les forces de l'ordre et les systèmes judiciaires. Des domaines estimés comme étant à haut risque, car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.
Bruxelles a précisé que certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien que certaines exemptions soient prévues pour des raisons de sécurité nationale et autres. La Commission a également déclaré que les applications d'IA qui permettent aux gouvernements de faire de la notation sociale ou d'exploiter des enfants seront interdites. Les applications d'IA à haut risque utilisées dans le recrutement, les infrastructures critiques, l'évaluation du crédit, la migration et l'application de la loi seront soumises à des garanties strictes.
Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'intelligence artificielle, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».
Une proposition insuffisante
Toutefois, la société civile, le comité européen de la protection des données et le contrôleur européen de la protection des données et un certain nombre de députés européens ont rapidement averti que la proposition de la Commission n'allait pas assez loin.
European Digital Rights a souligné des lacunes inquiétantes dans la proposition. « Le projet de loi n'interdit pas toute l'étendue des utilisations inacceptables de l'IA et en particulier toutes les formes de surveillance biométrique de masse. Cela laisse un vide inquiétant pour les technologies de discrimination et de surveillance utilisées par les gouvernements et les entreprises », a déclaré Sarah Chander du groupe de lobbying.
Patrick Breyer, législateur du parti des Verts au Parlement européen, s'est également montré cinglant à l'égard de la proposition. « Les technologies de surveillance biométrique et de masse, de profilage et de prédiction comportementale dans nos espaces publics portent atteinte à nos libertés et menacent nos sociétés ouvertes. Les exigences procédurales proposées ne sont qu'un simple écran de fumée », a-t-il déclaré.
« La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA. Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a indiqué l'organisation européenne des consommateurs sur son site Web.
Une enquête récente de l'organisation européenne montre que la majorité des consommateurs sont très préoccupés par l'utilisation de l'IA. La majorité des personnes interrogées ont reconnu que les entreprises utilisent l'IA pour manipuler les décisions des consommateurs. Plus de deux tiers des personnes interrogées ont déclaré que les utilisateurs devraient avoir le droit de dire "non" à la prise de décision automatisée.
Le Parlement réagit
Le Parlement a indiqué qu'il souhaitait également des garanties plus solides pour les droits fondamentaux.
Dans une résolution, le parlement a voté 377:248 en faveur du rapport de la commission LIBE sur l'intelligence artificielle dans le droit pénal. Les parlementaires ont envoyé un signal fort sur ce qu'ils accepteront dans les prochaines négociations entre les institutions européennes qui détermineront les détails de la loi sur l'intelligence artificielle.
Le paragraphe pertinent sur la surveillance biométrique à distance invite la Commission à :
« …mettre en œuvre, par des moyens législatifs et non législatifs, et si nécessaire par des procédures d'infraction, une interdiction de tout traitement de données biométriques, y compris les images faciales, à des fins répressives qui conduit à une surveillance de masse dans des espaces accessibles au public ; demande en outre à la Commission de cesser de financer la recherche ou le déploiement biométrique ou des programmes susceptibles d'entraîner une surveillance de masse aveugle dans les espaces publics ».
La résolution vise également le biais algorithmique, appelant à une surveillance humaine et à de solides pouvoirs juridiques pour empêcher la discrimination par l'IA (en particulier dans un contexte d'application de la loi et de franchissement des frontières).
Les opérateurs humains doivent toujours prendre les décisions finales, ont convenu les députés, affirmant que les sujets surveillés par des systèmes alimentés par l'IA doivent avoir accès à des recours.
Pour garantir le respect des droits fondamentaux lors de l'utilisation de systèmes d'identification basés sur l'IA (dont les députés ont noté qu'il s'est avéré mal identifier les groupes ethniques minoritaires, les personnes LGBTI, les personnes âgées et les femmes à des taux plus élevés) les algorithmes devraient être transparents, traçables et suffisamment documentés, ont-ils également déclaré.
Ils ont également appelé les pouvoirs publics à utiliser des logiciels open source afin d'être plus transparents, dans la mesure du possible.
Les députés ont également ciblé un projet de recherche controversé financé par l'UE (pour créer un détecteur de mensonges « intelligent » basé sur l'analyse des expressions faciales) en disant que le projet iBorderCtrl devrait être interrompu.
Commentant dans une déclaration, le rapporteur Petar Vitanov (S&D, BG) a déclaré : « Les droits fondamentaux sont inconditionnels. Pour la première fois, nous appelons à un moratoire sur le déploiement de systèmes de reconnaissance faciale à des fins répressives, car la technologie s'est avérée inefficace et conduit souvent à des résultats discriminatoires. Nous sommes clairement opposés à la police prédictive basée sur l'utilisation de l'IA ainsi qu'à tout traitement de données biométriques conduisant à une surveillance de masse. C'est une énorme victoire pour tous les citoyens européens ».
La résolution du Parlement appelle également à l'interdiction de l'IA aidant les décisions judiciaires (un autre domaine très controversé où l'automatisation est déjà appliquée, avec le risque que l'automatisation cimente et amplifie les biais systémiques dans les systèmes de justice pénale).
L'organisation caritative mondiale des droits de l'homme, Fair Trials, a salué le vote, le qualifiant de « résultat historique pour les droits fondamentaux et la non-discrimination à l'ère technologique ».
Source : communiqué de presse du Parlement
Et vous ?
Que pensez-vous de cette décision du Parlement ?
Voir aussi :
Pourquoi les systèmes de crédit social de la Chine sont-ils étonnamment populaires ? Ils combleraient la « méfiance mutuelle entre les citoyens »
Chine : les personnes qui changent d'emploi trop souvent pourraient être sanctionnées, par le système de crédit social
Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus.
L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau
Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse par les forces de l'ordre
Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse par les forces de l'ordre
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !