IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse par les forces de l'ordre

Le , par Stéphane le calme

154PARTAGES

9  0 
Les technologies de surveillance à distance basées sur l'IA, telles que la reconnaissance faciale, ont d'énormes implications pour les droits et libertés fondamentaux tels que la vie privée, mais elles sont déjà de plus en plus utilisées dans le public en Europe. Pour respecter « la vie privée et la dignité humaine », les députés ont déclaré que les législateurs européens devraient interdire de manière permanente la reconnaissance automatisée des personnes dans les espaces publics, affirmant que les citoyens ne devraient être surveillés que lorsqu'ils sont soupçonnés d'un crime. Le parlement a également appelé à l'interdiction d'utiliser des bases de données privées de reconnaissance faciale – comme le système d'IA controversé créé par la startup américaine Clearview (également déjà utilisé par certaines forces de police en Europe) – et a déclaré qu'une police prédictive basée sur des données comportementales devrait également être interdite. Les députés souhaitent également interdire les systèmes de notation sociale qui cherchent à évaluer la fiabilité des citoyens en fonction de leur comportement ou de leur personnalité.

L’IA est l’une des priorités principales de l’actuelle Commission. La présidente de la Commission, Ursula von der Leyen, a annoncé dans ses orientations politiques une approche européenne coordonnée relative aux implications humaines et éthiques de l’IA, ainsi qu’une réflexion sur une meilleure utilisation des mégadonnées pour promouvoir l’innovation. La reconnaissance de l’IA en tant que dossier à traiter au niveau de l’UE a été accompagnée d’une réflexion sur la manière de garantir la confiance dans les technologies de l’IA et sur la manière de veiller à ce que l’IA ne compromette pas les droits fondamentaux au sein de l’UE.

Il faut noter que le Parlement européen s’est penché sur l’IA plusieurs années avant que la Commission ne décide d’en faire une priorité de premier plan. Plusieurs résolutions sur les mégadonnées, la robotique et l’intelligence artificielle, adoptées par le Parlement depuis 2016, montrent l’importance qu’il accorde à ce sujet. Les résolutions ont porté sur différentes incidences de l’IA et sur la façon dont elle influence le bien-être, l’éducation, la technologie, les droits légaux et fondamentaux, ainsi que l’activité économique dans son ensemble. Ces résolutions ont souligné la nécessité d’adopter une approche « centrée sur l’humain », fondée sur le respect des droits fondamentaux, à savoir la charte de l’UE et le cadre de l’UE en matière de protection des données.

L’IA offre de grandes possibilités également dans le domaine des services répressifs et de la justice pénale, notamment pour améliorer les méthodes de travail des services répressifs et des autorités judiciaires, et pour lutter plus efficacement contre certains types de criminalité, en particulier la criminalité financière, le blanchiment de capitaux et le financement du terrorisme, ainsi que certains types de cybercriminalité. Dans ce secteur, les applications d’IA comprennent notamment les technologies de reconnaissance faciale, la reconnaissance automatique des plaques minéralogiques, l’identification des orateurs, l’identification de la parole, les technologies de lecture sur les lèvres, la surveillance auditive (les algorithmes de détection des coups de feu), la recherche et l’analyse autonomes des bases de données identifiées, les prévisions (police prédictive et analyse des foyers de criminalité), les outils de détection des comportements, les outils autonomes permettant de détecter la fraude financière et le financement du terrorisme, le suivi des médias sociaux (moissonnage et collecte de données pour l’exploration des connexions), les intercepteurs d’IMSI (IMSI-catchers), et les systèmes de surveillance automatique qui comportent différentes possibilités de détection (telles que la détection des battements du cœur et les caméras thermiques). Dans le domaine judiciaire, les outils d’IA peuvent être utilisés pour calculer les probabilités de récidive et pour déterminer la probation ou décider de la peine.

En dépit des avantages apportés par l’IA, le fait est que, parallèlement, l’IA comporte un certain nombre de risques potentiels, tels que l’opacité de la prise de décision, différents types de discrimination, l’intrusion dans notre vie privée, les défis en matière de protection des données à caractère personnel, de la dignité humaine et de la liberté d’expression et d’information. Ces risques potentiels sont aggravés dans le secteur de la répression et de la justice pénale, dans la mesure où ils peuvent porter atteinte à la présomption d’innocence, aux droits fondamentaux à la liberté et à la sûreté de la personne et au droit à un recours effectif et à un procès équitable.


L'établissement de normes

C'est pourquoi en avril, l'exécutif de l'UE a présenté un projet de loi visant à réglementer les utilisations à haut risque de la technologie de l'intelligence artificielle, notamment dans l'utilisation par les forces de l'ordre et les systèmes judiciaires. Des domaines estimés comme étant à haut risque, car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.

Bruxelles a précisé que certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien que certaines exemptions soient prévues pour des raisons de sécurité nationale et autres. La Commission a également déclaré que les applications d'IA qui permettent aux gouvernements de faire de la notation sociale ou d'exploiter des enfants seront interdites. Les applications d'IA à haut risque utilisées dans le recrutement, les infrastructures critiques, l'évaluation du crédit, la migration et l'application de la loi seront soumises à des garanties strictes.

Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'intelligence artificielle, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».

Une proposition insuffisante

Toutefois, la société civile, le comité européen de la protection des données et le contrôleur européen de la protection des données et un certain nombre de députés européens ont rapidement averti que la proposition de la Commission n'allait pas assez loin.

European Digital Rights a souligné des lacunes inquiétantes dans la proposition. « Le projet de loi n'interdit pas toute l'étendue des utilisations inacceptables de l'IA et en particulier toutes les formes de surveillance biométrique de masse. Cela laisse un vide inquiétant pour les technologies de discrimination et de surveillance utilisées par les gouvernements et les entreprises », a déclaré Sarah Chander du groupe de lobbying.

Patrick Breyer, législateur du parti des Verts au Parlement européen, s'est également montré cinglant à l'égard de la proposition. « Les technologies de surveillance biométrique et de masse, de profilage et de prédiction comportementale dans nos espaces publics portent atteinte à nos libertés et menacent nos sociétés ouvertes. Les exigences procédurales proposées ne sont qu'un simple écran de fumée », a-t-il déclaré.

« La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA. Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a indiqué l'organisation européenne des consommateurs sur son site Web.

Une enquête récente de l'organisation européenne montre que la majorité des consommateurs sont très préoccupés par l'utilisation de l'IA. La majorité des personnes interrogées ont reconnu que les entreprises utilisent l'IA pour manipuler les décisions des consommateurs. Plus de deux tiers des personnes interrogées ont déclaré que les utilisateurs devraient avoir le droit de dire "non" à la prise de décision automatisée.


Le Parlement réagit

Le Parlement a indiqué qu'il souhaitait également des garanties plus solides pour les droits fondamentaux.

Dans une résolution, le parlement a voté 377:248 en faveur du rapport de la commission LIBE sur l'intelligence artificielle dans le droit pénal. Les parlementaires ont envoyé un signal fort sur ce qu'ils accepteront dans les prochaines négociations entre les institutions européennes qui détermineront les détails de la loi sur l'intelligence artificielle.


Le paragraphe pertinent sur la surveillance biométrique à distance invite la Commission à :

« …mettre en œuvre, par des moyens législatifs et non législatifs, et si nécessaire par des procédures d'infraction, une interdiction de tout traitement de données biométriques, y compris les images faciales, à des fins répressives qui conduit à une surveillance de masse dans des espaces accessibles au public ; demande en outre à la Commission de cesser de financer la recherche ou le déploiement biométrique ou des programmes susceptibles d'entraîner une surveillance de masse aveugle dans les espaces publics ».

La résolution vise également le biais algorithmique, appelant à une surveillance humaine et à de solides pouvoirs juridiques pour empêcher la discrimination par l'IA (en particulier dans un contexte d'application de la loi et de franchissement des frontières).

Les opérateurs humains doivent toujours prendre les décisions finales, ont convenu les députés, affirmant que les sujets surveillés par des systèmes alimentés par l'IA doivent avoir accès à des recours.

Pour garantir le respect des droits fondamentaux lors de l'utilisation de systèmes d'identification basés sur l'IA (dont les députés ont noté qu'il s'est avéré mal identifier les groupes ethniques minoritaires, les personnes LGBTI, les personnes âgées et les femmes à des taux plus élevés) les algorithmes devraient être transparents, traçables et suffisamment documentés, ont-ils également déclaré.

Ils ont également appelé les pouvoirs publics à utiliser des logiciels open source afin d'être plus transparents, dans la mesure du possible.

Les députés ont également ciblé un projet de recherche controversé financé par l'UE (pour créer un détecteur de mensonges « intelligent » basé sur l'analyse des expressions faciales) en disant que le projet iBorderCtrl devrait être interrompu.

Commentant dans une déclaration, le rapporteur Petar Vitanov (S&D, BG) a déclaré : « Les droits fondamentaux sont inconditionnels. Pour la première fois, nous appelons à un moratoire sur le déploiement de systèmes de reconnaissance faciale à des fins répressives, car la technologie s'est avérée inefficace et conduit souvent à des résultats discriminatoires. Nous sommes clairement opposés à la police prédictive basée sur l'utilisation de l'IA ainsi qu'à tout traitement de données biométriques conduisant à une surveillance de masse. C'est une énorme victoire pour tous les citoyens européens ».

La résolution du Parlement appelle également à l'interdiction de l'IA aidant les décisions judiciaires (un autre domaine très controversé où l'automatisation est déjà appliquée, avec le risque que l'automatisation cimente et amplifie les biais systémiques dans les systèmes de justice pénale).

L'organisation caritative mondiale des droits de l'homme, Fair Trials, a salué le vote, le qualifiant de « résultat historique pour les droits fondamentaux et la non-discrimination à l'ère technologique ».

Source : communiqué de presse du Parlement

Et vous ?

Que pensez-vous de cette décision du Parlement ?

Voir aussi :

Pourquoi les systèmes de crédit social de la Chine sont-ils étonnamment populaires ? Ils combleraient la « méfiance mutuelle entre les citoyens »
Chine : les personnes qui changent d'emploi trop souvent pourraient être sanctionnées, par le système de crédit social
Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus.
L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/10/2021 à 8:13
Espérons que ce règlement soit suivi d'effets en France.
5  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 11/05/2022 à 16:02
Il n'y a rien de bien clair dans ce rapport : ni les buts, ni la façon de se donner les moyens de créer des pôles d'excellences. C'est flou.
Je le dis et je le répète encore, mais ailleurs, c'est le complexe militaro-industriel qui donne le tempo sur le développement de l'IA. Est les buts sont avant tout militaires.

Au niveau européen, on a pas de complexe militaro-industriel, donc ça ne marchera pas : les industriels privés veulent un retour sur investissent, il faut du concret.
4  1 
Avatar de Gétoufaux
Candidat au Club https://www.developpez.com
Le 07/10/2021 à 12:49
cf. https://www.laquadrature.net/2021/10...-securitaires/
1  0 
Avatar de tanaka59
Inactif https://www.developpez.com
Le 08/10/2021 à 21:07
Bonsoir,

Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse par les forces de l'ordre

Que pensez-vous de cette décision du Parlement ?
En Europe et en Amerique du Nord c'est les entreprises privées qui se charge de la "surveillance" de masse ... En Chine l'état ne s'en cache pas ... L'UE essaye d'interdire un truc qui est déjà pratiqué de manière plus ou moins boiteuse ...

Ce que j'en pense ? Cela ne changera rien et n'arrêtera rien non plus.
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 12/05/2022 à 23:08
Citation Envoyé par Cpt Anderson Voir le message
Il n'y a rien de bien clair dans ce rapport : ni les buts, ni la façon de se donner les moyens de créer des pôles d'excellences. C'est flou.
Je le dis et je le répète encore, mais ailleurs, c'est le complexe militaro-industriel qui donne le tempo sur le développement de l'IA. Est les buts sont avant tout militaires.

Au niveau européen, on a pas de complexe militaro-industriel, donc ça ne marchera pas : les industriels privés veulent un retour sur investissent, il faut du concret.
J'en serai pas aussi sûr. Les dirigeants de l'UE ont des liens serrés avec le WEF (Le Forum économique mondial) qui tent de vous vendre un monde oû "vous n'auriez rien, mais vous allez être heureux!". En Chine, ils sont en train de mettre en place un modèle de surveillence qui s'assurent que tu adhère aux idées du parti et que tu es d'une parfaite soumission. Et pour implanter "Le grand frère de 1984", notre savoir est assez avancé pour ce se soit une réalité possible. Je ne sais pas à quel point les ordinateurs comprennent le Mandarin. Mais si j'était un Chinois.

Ils tentent de vous imposez une armée européenne. Si vous ne faite pas attention, le quatrième Reich va vous baisez en beauté.
2  1 
Avatar de Andy Oka
Membre habitué https://www.developpez.com
Le 30/10/2022 à 7:04
Exactement. La seule raison susciter une fausse panique ici est que vous êtes une entreprise commerciale qui n'en veut pas se conformer a ces exigences minimales et qui par conséquent, nourrit des fantasmes de dommages catastrophique
1  0 
Avatar de Thibaut_D
Futur Membre du Club https://www.developpez.com
Le 08/02/2023 à 17:08
Citation Envoyé par HaryRoseAndMac Voir le message
La RGPD n'a pas été inventée par l'EU.
Le RGPD à été proposé par la commission pour remplacer un ancien texte (Directive 95/46/CE sur la protection des données personnelles) voté en 1995. Ce n'est pas à cause d'une petition

Citation Envoyé par HaryRoseAndMac Voir le message
L'UE ne conçoit rien du tout, c'est un organe qui a totalement outrepassé sa fonction et qui est devenu un parasite qui vampirise les états membres, qui se permet de dicter sa loi et de dire aux divers pays Européens ce qu'ils doivent faire, en imposant des choses folles, en enrichissant les uns sur le fait de faire couler les autres et j'en passe.

Il ne faut pas sortir de l'Europe, car nous en avons besoin, mais il faut faire un très, très grande ménage dans ce cancer sur pate.
Ce sont les pays membres qui forme l'UE. La commission européenne (exécutif) est formée de 27 commissaires nommé par chaque état membre (1 commissaire par pays). Ce sont donc les états membres qui agissent sur l'UE. Il y a aussi le parlement européen (législatif) dont les députés sont élus par les citoyens de l'Union.

C'est la commission européenne qui à proposé en RGPD donc les états membres donc parfaitement dans ses droits.
1  0 
Avatar de ciola
Membre à l'essai https://www.developpez.com
Le 07/03/2023 à 0:00
"ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée"
Je l'ai essayé pour voir s'il pouvait faire des preuves en géométrie et c'est vraiment pas fameux. Ses démonstrations ressemblent beaucoup aux tentatives d'enfumage de certains de mes étudiants quand ils ne maîtrisent le sujet.
1  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/03/2023 à 9:27
Citation Envoyé par ciola Voir le message
"ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée"
Je l'ai essayé pour voir s'il pouvait faire des preuves en géométrie et c'est vraiment pas fameux. Ses démonstrations ressemblent beaucoup aux tentatives d'enfumage de certains de mes étudiants quand ils ne maîtrisent le sujet.
En soi on le sait déjà que les maths sont pas son point fort.

En même temps c'est une IA qui est faite pour des "conversations" plus que des "démonstrations scientifiques".
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 11/10/2021 à 6:49
Citation Envoyé par Madmac Voir le message
Ce n'est pas un accident si vous ne pouvez plus enlever votre pile. C'est une obligation imposée aux fabricants.
Une batterie amovible ça prend de la place et ça coute cher, c'est pour ça qu'il n'y en a plus dans les smartphones.
Les fabricants veulent des smartphones fins et faire des économies partout où ils peuvent.

Si vous ne voulez pas être écouté vous pouvez éteindre votre smartphone. Si vous êtes paranoique vous pouvez ranger votre smartphone dans votre four micro onde.
0  0