IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'organisme européen de protection de la vie privée estime que la reconnaissance faciale devrait être interdite
En raison de son intrusion profonde et non démocratique dans la vie privée des gens

Le , par Bill Fassinou

96PARTAGES

18  0 
Alors que l'organisation européenne des consommateurs a déclaré il y a quelques jours que la proposition de loi de l'Europe sur l'IA est faible, l'organisme européen de protection de la vie privée monte à son tour au créneau en déclarant que l'utilisation de la technologie de reconnaissance faciale devrait être interdite. Ces commentaires interviennent deux jours après que la Commission européenne a proposé son projet de règles qui permettraient d'utiliser la reconnaissance faciale pour rechercher des enfants disparus ou des criminels et dans les cas d'attaques terroristes.

Il y a quelques jours, l'UE a révélé son intention d'établir des normes mondiales pour l'utilisation de l'IA. La Commission a dévoilé une réglementation stricte pour régir l'utilisation de l’IA, une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Selon l'organisation, cela devrait permettre de promouvoir « l'excellence et la confiance dans l'IA ». Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien qu'il y ait plusieurs exemptions pour des raisons de sécurité nationale et autres.



Cependant, pour l'organisation européenne des consommateurs, la proposition de loi est faible en matière de protection des consommateurs. « La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA », a indiqué l'organisation européenne des consommateurs sur son site Web.

« Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a-t-elle ajouté. Si l'organisation européenne des consommateurs sur son site Web statue sur l'ensemble des règles proposées, l'organisme européen de protection de la vie privée s'est attardé sur le volet consacré à la technologie de reconnaissance faciale. Pour lui, la reconnaissance faciale devrait être purement et simplement interdite. À en croire son communiqué, cela devrait l'être, peu importe le cas d'utilisation.

Selon le Contrôleur européen de la protection des données (CEPD), « La reconnaissance faciale devrait être interdite en Europe en raison de son intrusion profonde et non démocratique dans la vie privée des gens ». « Une approche plus stricte est nécessaire étant donné que l'identification biométrique à distance, où l'IA peut contribuer à des développements sans précédent, présente des risques extrêmement élevés d'intrusion profonde et non démocratique dans la vie privée des individus », a-t-il déclaré dans un communiqué.

Il a déclaré qu'il regrettait que la Commission n'ait pas tenu compte de sa demande antérieure d'interdire la reconnaissance faciale dans les espaces publics. « Le CEPD s'attachera en particulier à fixer des limites précises pour les outils et systèmes qui peuvent présenter des risques pour les droits fondamentaux à la protection des données et à la vie privée. Les propositions de la Commission ont suscité des critiques de la part des groupes de défense des droits civils, inquiets des failles qui pourraient permettre aux gouvernements autoritaires d'abuser de l'IA pour réprimer les droits des personnes.

Elles doivent être discutées avec les pays de l'UE et le Parlement européen. Plus en détail, le projet de règles fixerait des limites à l'utilisation de l'IA dans toute une série d'activités, des voitures à conduite autonome aux décisions d'embauche, en passant par les prêts bancaires, les sélections d'inscriptions dans les écoles et la notation des examens. Elle couvrirait également l'utilisation de l'IA par les forces de l'ordre et les systèmes judiciaires. Ces derniers domaines sont considérés par la Commission européenne comme des domaines "à haut risque", car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.

Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'IA, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».

La réglementation de l'UE obligerait les sociétés fournissant des solutions d'IA dans des domaines à haut risque à fournir aux régulateurs des preuves de sa sécurité, notamment des évaluations des risques et des documents expliquant comment la technologie prend ses décisions. Les entreprises doivent également garantir une surveillance humaine de la manière dont les systèmes sont créés et utilisés.

Source : Communiqué du CEPD

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du projet de règles de la Commission européenne ?

Voir aussi

L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent

L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent

L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/10/2021 à 8:13
Espérons que ce règlement soit suivi d'effets en France.
6  0 
Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/202...-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 23/04/2021 à 23:05
Citation Envoyé par tanaka59 Voir le message
Le projet de loi d'interdiction , c'est du flan . Vu qu'on l'utilise déjà et que des lois liberticides peuvent toujours passées. On l'a vu avec le covid.
Ouais, les lois Européennes sont utiles quand un gouvernement veut faire passer une mesure impopulaire. Il leur suffit de dire "C'est pas nous, c'est l'Europe".

Par contre quand ça ne va pas dans leur sens, ils s'en foutent complètement...
3  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 11/05/2022 à 16:02
Il n'y a rien de bien clair dans ce rapport : ni les buts, ni la façon de se donner les moyens de créer des pôles d'excellences. C'est flou.
Je le dis et je le répète encore, mais ailleurs, c'est le complexe militaro-industriel qui donne le tempo sur le développement de l'IA. Est les buts sont avant tout militaires.

Au niveau européen, on a pas de complexe militaro-industriel, donc ça ne marchera pas : les industriels privés veulent un retour sur investissent, il faut du concret.
5  2 
Avatar de Thibaut_D
Membre à l'essai https://www.developpez.com
Le 08/02/2023 à 17:08
Citation Envoyé par HaryRoseAndMac Voir le message
La RGPD n'a pas été inventée par l'EU.
Le RGPD à été proposé par la commission pour remplacer un ancien texte (Directive 95/46/CE sur la protection des données personnelles) voté en 1995. Ce n'est pas à cause d'une petition

Citation Envoyé par HaryRoseAndMac Voir le message
L'UE ne conçoit rien du tout, c'est un organe qui a totalement outrepassé sa fonction et qui est devenu un parasite qui vampirise les états membres, qui se permet de dicter sa loi et de dire aux divers pays Européens ce qu'ils doivent faire, en imposant des choses folles, en enrichissant les uns sur le fait de faire couler les autres et j'en passe.

Il ne faut pas sortir de l'Europe, car nous en avons besoin, mais il faut faire un très, très grande ménage dans ce cancer sur pate.
Ce sont les pays membres qui forme l'UE. La commission européenne (exécutif) est formée de 27 commissaires nommé par chaque état membre (1 commissaire par pays). Ce sont donc les états membres qui agissent sur l'UE. Il y a aussi le parlement européen (législatif) dont les députés sont élus par les citoyens de l'Union.

C'est la commission européenne qui à proposé en RGPD donc les états membres donc parfaitement dans ses droits.
3  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/03/2023 à 9:27
Citation Envoyé par ciola Voir le message
"ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée"
Je l'ai essayé pour voir s'il pouvait faire des preuves en géométrie et c'est vraiment pas fameux. Ses démonstrations ressemblent beaucoup aux tentatives d'enfumage de certains de mes étudiants quand ils ne maîtrisent le sujet.
En soi on le sait déjà que les maths sont pas son point fort.

En même temps c'est une IA qui est faite pour des "conversations" plus que des "démonstrations scientifiques".
3  0