L'organisme européen de protection de la vie privée estime que la reconnaissance faciale devrait être interdite
En raison de son intrusion profonde et non démocratique dans la vie privée des gens
Le 2021-04-23 17:58:27, par Bill Fassinou, Chroniqueur Actualités
Alors que l'organisation européenne des consommateurs a déclaré il y a quelques jours que la proposition de loi de l'Europe sur l'IA est faible, l'organisme européen de protection de la vie privée monte à son tour au créneau en déclarant que l'utilisation de la technologie de reconnaissance faciale devrait être interdite. Ces commentaires interviennent deux jours après que la Commission européenne a proposé son projet de règles qui permettraient d'utiliser la reconnaissance faciale pour rechercher des enfants disparus ou des criminels et dans les cas d'attaques terroristes.
Il y a quelques jours, l'UE a révélé son intention d'établir des normes mondiales pour l'utilisation de l'IA. La Commission a dévoilé une réglementation stricte pour régir l'utilisation de l’IA, une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Selon l'organisation, cela devrait permettre de promouvoir « l'excellence et la confiance dans l'IA ». Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien qu'il y ait plusieurs exemptions pour des raisons de sécurité nationale et autres.
Cependant, pour l'organisation européenne des consommateurs, la proposition de loi est faible en matière de protection des consommateurs. « La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA », a indiqué l'organisation européenne des consommateurs sur son site Web.
« Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a-t-elle ajouté. Si l'organisation européenne des consommateurs sur son site Web statue sur l'ensemble des règles proposées, l'organisme européen de protection de la vie privée s'est attardé sur le volet consacré à la technologie de reconnaissance faciale. Pour lui, la reconnaissance faciale devrait être purement et simplement interdite. À en croire son communiqué, cela devrait l'être, peu importe le cas d'utilisation.
Selon le Contrôleur européen de la protection des données (CEPD), « La reconnaissance faciale devrait être interdite en Europe en raison de son intrusion profonde et non démocratique dans la vie privée des gens ». « Une approche plus stricte est nécessaire étant donné que l'identification biométrique à distance, où l'IA peut contribuer à des développements sans précédent, présente des risques extrêmement élevés d'intrusion profonde et non démocratique dans la vie privée des individus », a-t-il déclaré dans un communiqué.
Il a déclaré qu'il regrettait que la Commission n'ait pas tenu compte de sa demande antérieure d'interdire la reconnaissance faciale dans les espaces publics. « Le CEPD s'attachera en particulier à fixer des limites précises pour les outils et systèmes qui peuvent présenter des risques pour les droits fondamentaux à la protection des données et à la vie privée. Les propositions de la Commission ont suscité des critiques de la part des groupes de défense des droits civils, inquiets des failles qui pourraient permettre aux gouvernements autoritaires d'abuser de l'IA pour réprimer les droits des personnes.
Elles doivent être discutées avec les pays de l'UE et le Parlement européen. Plus en détail, le projet de règles fixerait des limites à l'utilisation de l'IA dans toute une série d'activités, des voitures à conduite autonome aux décisions d'embauche, en passant par les prêts bancaires, les sélections d'inscriptions dans les écoles et la notation des examens. Elle couvrirait également l'utilisation de l'IA par les forces de l'ordre et les systèmes judiciaires. Ces derniers domaines sont considérés par la Commission européenne comme des domaines "à haut risque", car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.
Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'IA, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».
La réglementation de l'UE obligerait les sociétés fournissant des solutions d'IA dans des domaines à haut risque à fournir aux régulateurs des preuves de sa sécurité, notamment des évaluations des risques et des documents expliquant comment la technologie prend ses décisions. Les entreprises doivent également garantir une surveillance humaine de la manière dont les systèmes sont créés et utilisés.
Source : Communiqué du CEPD
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du projet de règles de la Commission européenne ?
Voir aussi
L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs
L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
Il y a quelques jours, l'UE a révélé son intention d'établir des normes mondiales pour l'utilisation de l'IA. La Commission a dévoilé une réglementation stricte pour régir l'utilisation de l’IA, une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Selon l'organisation, cela devrait permettre de promouvoir « l'excellence et la confiance dans l'IA ». Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien qu'il y ait plusieurs exemptions pour des raisons de sécurité nationale et autres.
Cependant, pour l'organisation européenne des consommateurs, la proposition de loi est faible en matière de protection des consommateurs. « La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA », a indiqué l'organisation européenne des consommateurs sur son site Web.
« Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a-t-elle ajouté. Si l'organisation européenne des consommateurs sur son site Web statue sur l'ensemble des règles proposées, l'organisme européen de protection de la vie privée s'est attardé sur le volet consacré à la technologie de reconnaissance faciale. Pour lui, la reconnaissance faciale devrait être purement et simplement interdite. À en croire son communiqué, cela devrait l'être, peu importe le cas d'utilisation.
Selon le Contrôleur européen de la protection des données (CEPD), « La reconnaissance faciale devrait être interdite en Europe en raison de son intrusion profonde et non démocratique dans la vie privée des gens ». « Une approche plus stricte est nécessaire étant donné que l'identification biométrique à distance, où l'IA peut contribuer à des développements sans précédent, présente des risques extrêmement élevés d'intrusion profonde et non démocratique dans la vie privée des individus », a-t-il déclaré dans un communiqué.
Il a déclaré qu'il regrettait que la Commission n'ait pas tenu compte de sa demande antérieure d'interdire la reconnaissance faciale dans les espaces publics. « Le CEPD s'attachera en particulier à fixer des limites précises pour les outils et systèmes qui peuvent présenter des risques pour les droits fondamentaux à la protection des données et à la vie privée. Les propositions de la Commission ont suscité des critiques de la part des groupes de défense des droits civils, inquiets des failles qui pourraient permettre aux gouvernements autoritaires d'abuser de l'IA pour réprimer les droits des personnes.
Elles doivent être discutées avec les pays de l'UE et le Parlement européen. Plus en détail, le projet de règles fixerait des limites à l'utilisation de l'IA dans toute une série d'activités, des voitures à conduite autonome aux décisions d'embauche, en passant par les prêts bancaires, les sélections d'inscriptions dans les écoles et la notation des examens. Elle couvrirait également l'utilisation de l'IA par les forces de l'ordre et les systèmes judiciaires. Ces derniers domaines sont considérés par la Commission européenne comme des domaines "à haut risque", car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.
Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'IA, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».
La réglementation de l'UE obligerait les sociétés fournissant des solutions d'IA dans des domaines à haut risque à fournir aux régulateurs des preuves de sa sécurité, notamment des évaluations des risques et des documents expliquant comment la technologie prend ses décisions. Les entreprises doivent également garantir une surveillance humaine de la manière dont les systèmes sont créés et utilisés.
Source : Communiqué du CEPD
Et vous ?
Voir aussi
-
marsupialExpert éminentEspérons que ce règlement soit suivi d'effets en France.le 07/10/2021 à 8:13
-
RefuznikMembre éclairéQue pensez-vous de la proposition des parlementaires européens ?Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.
Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.
Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.
Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.
Lien : https://www.technologyreview.com/202...-does-it-mean/le 15/04/2023 à 21:57 -
mith06Membre expérimentéQuand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdictionles applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.le 16/06/2023 à 11:34 -
OrthodoxWindowsMembre émériteEncore une étude de greenwashingle 07/02/2024 à 22:16
-
Anselme45Membre extrêmement actifEt comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!le 24/03/2024 à 11:22
-
Jon ShannowMembre extrêmement actifJe n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.
Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.le 10/04/2024 à 8:28 -
kain_tnExpert éminentOuais, les lois Européennes sont utiles quand un gouvernement veut faire passer une mesure impopulaire. Il leur suffit de dire "C'est pas nous, c'est l'Europe".
Par contre quand ça ne va pas dans leur sens, ils s'en foutent complètement...le 23/04/2021 à 23:05 -
Cpt AndersonMembre émériteIl n'y a rien de bien clair dans ce rapport : ni les buts, ni la façon de se donner les moyens de créer des pôles d'excellences. C'est flou.
Je le dis et je le répète encore, mais ailleurs, c'est le complexe militaro-industriel qui donne le tempo sur le développement de l'IA. Est les buts sont avant tout militaires.
Au niveau européen, on a pas de complexe militaro-industriel, donc ça ne marchera pas : les industriels privés veulent un retour sur investissent, il faut du concret.le 11/05/2022 à 16:02 -
Thibaut_DMembre à l'essaiLe RGPD à été proposé par la commission pour remplacer un ancien texte (Directive 95/46/CE sur la protection des données personnelles) voté en 1995. Ce n'est pas à cause d'une petition
Ce sont les pays membres qui forme l'UE. La commission européenne (exécutif) est formée de 27 commissaires nommé par chaque état membre (1 commissaire par pays). Ce sont donc les états membres qui agissent sur l'UE. Il y a aussi le parlement européen (législatif) dont les députés sont élus par les citoyens de l'Union.
C'est la commission européenne qui à proposé en RGPD donc les états membres donc parfaitement dans ses droits.le 08/02/2023 à 17:08 -
walfratMembre émériteEn soi on le sait déjà que les maths sont pas son point fort.
En même temps c'est une IA qui est faite pour des "conversations" plus que des "démonstrations scientifiques".le 07/03/2023 à 9:27