IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'organisme européen de protection de la vie privée estime que la reconnaissance faciale devrait être interdite
En raison de son intrusion profonde et non démocratique dans la vie privée des gens

Le , par Bill Fassinou

96PARTAGES

18  0 
Alors que l'organisation européenne des consommateurs a déclaré il y a quelques jours que la proposition de loi de l'Europe sur l'IA est faible, l'organisme européen de protection de la vie privée monte à son tour au créneau en déclarant que l'utilisation de la technologie de reconnaissance faciale devrait être interdite. Ces commentaires interviennent deux jours après que la Commission européenne a proposé son projet de règles qui permettraient d'utiliser la reconnaissance faciale pour rechercher des enfants disparus ou des criminels et dans les cas d'attaques terroristes.

Il y a quelques jours, l'UE a révélé son intention d'établir des normes mondiales pour l'utilisation de l'IA. La Commission a dévoilé une réglementation stricte pour régir l'utilisation de l’IA, une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Selon l'organisation, cela devrait permettre de promouvoir « l'excellence et la confiance dans l'IA ». Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien qu'il y ait plusieurs exemptions pour des raisons de sécurité nationale et autres.



Cependant, pour l'organisation européenne des consommateurs, la proposition de loi est faible en matière de protection des consommateurs. « La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA », a indiqué l'organisation européenne des consommateurs sur son site Web.

« Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a-t-elle ajouté. Si l'organisation européenne des consommateurs sur son site Web statue sur l'ensemble des règles proposées, l'organisme européen de protection de la vie privée s'est attardé sur le volet consacré à la technologie de reconnaissance faciale. Pour lui, la reconnaissance faciale devrait être purement et simplement interdite. À en croire son communiqué, cela devrait l'être, peu importe le cas d'utilisation.

Selon le Contrôleur européen de la protection des données (CEPD), « La reconnaissance faciale devrait être interdite en Europe en raison de son intrusion profonde et non démocratique dans la vie privée des gens ». « Une approche plus stricte est nécessaire étant donné que l'identification biométrique à distance, où l'IA peut contribuer à des développements sans précédent, présente des risques extrêmement élevés d'intrusion profonde et non démocratique dans la vie privée des individus », a-t-il déclaré dans un communiqué.

Il a déclaré qu'il regrettait que la Commission n'ait pas tenu compte de sa demande antérieure d'interdire la reconnaissance faciale dans les espaces publics. « Le CEPD s'attachera en particulier à fixer des limites précises pour les outils et systèmes qui peuvent présenter des risques pour les droits fondamentaux à la protection des données et à la vie privée. Les propositions de la Commission ont suscité des critiques de la part des groupes de défense des droits civils, inquiets des failles qui pourraient permettre aux gouvernements autoritaires d'abuser de l'IA pour réprimer les droits des personnes.

Elles doivent être discutées avec les pays de l'UE et le Parlement européen. Plus en détail, le projet de règles fixerait des limites à l'utilisation de l'IA dans toute une série d'activités, des voitures à conduite autonome aux décisions d'embauche, en passant par les prêts bancaires, les sélections d'inscriptions dans les écoles et la notation des examens. Elle couvrirait également l'utilisation de l'IA par les forces de l'ordre et les systèmes judiciaires. Ces derniers domaines sont considérés par la Commission européenne comme des domaines "à haut risque", car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.

Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'IA, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».

La réglementation de l'UE obligerait les sociétés fournissant des solutions d'IA dans des domaines à haut risque à fournir aux régulateurs des preuves de sa sécurité, notamment des évaluations des risques et des documents expliquant comment la technologie prend ses décisions. Les entreprises doivent également garantir une surveillance humaine de la manière dont les systèmes sont créés et utilisés.

Source : Communiqué du CEPD

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du projet de règles de la Commission européenne ?

Voir aussi

L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent

L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent

L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/10/2021 à 8:13
Espérons que ce règlement soit suivi d'effets en France.
6  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/202...-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0