IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'UE vote pour interdire l'IA dans la surveillance biométrique et exiger la divulgation des systèmes d'IA
Le projet de loi de l'UE sur l'IA se durcit, mais reste ouvert à la négociation

Le , par Bruno

5PARTAGES

15  0 
Le Parlement européen a adopté une résolution qui vise à limiter l’utilisation de l’intelligence artificielle (IA) dans des domaines sensibles pour les droits humains. La résolution adoptée par 626 voix contre 25 vise à protéger les droits fondamentaux des citoyens face aux risques potentiels de l’IA. Elle interdit l’utilisation de l’IA dans la surveillance biométrique, comme la reconnaissance faciale, qui peut porter atteinte à la vie privée et à la dignité des personnes.

La résolution exige également que les systèmes d’IA soient transparents et responsables, et qu’ils indiquent clairement aux utilisateurs qu’ils interagissent avec une machine et non avec un humain. La résolution appelle à une réglementation plus stricte de l’IA dans les domaines de la santé, de l’éducation, de la sécurité et de l’emploi, où l’IA peut avoir un impact significatif sur la qualité de vie et les opportunités des citoyens. Le Parlement européen demande à la Commission européenne de présenter une proposition législative sur l’IA d’ici la fin de l’année, en tenant compte des principes éthiques et juridiques de l’Union européenne.


Qu'est-ce que la loi européenne sur l'IA ?

L'AI Act est une proposition de loi européenne sur l'intelligence artificielle (IA). Il s'agit de la première loi sur l'IA émanant d'une autorité de régulation majeure. La loi classe les applications de l'IA dans trois catégories de risque :

  • les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
  • les applications à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques ;
  • les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.

Pourquoi faut-il s'en préoccuper ?

Les applications d'IA influencent les informations que vous voyez en ligne en prédisant le contenu qui vous intéresse, capturent et analysent les données des visages pour faire appliquer les lois ou personnaliser les publicités, et sont utilisées pour diagnostiquer et traiter le cancer. En d'autres termes, l'IA affecte de nombreux aspects de votre vie.

À l'instar du règlement général sur la protection des données (RGPD) de l'UE en 2018, la loi européenne sur l'IA pourrait devenir une norme mondiale, déterminant dans quelle mesure l'IA a un effet positif plutôt que négatif sur votre vie, où que vous soyez. Le règlement de l'UE sur l'IA fait déjà des vagues à l'échelle internationale. Fin septembre 2021, le Congrès brésilien a adopté un projet de loi créant un cadre juridique pour l'intelligence artificielle. Ce projet de loi doit encore être adopté par le Sénat brésilien.

La proposition de loi comporte plusieurs lacunes et exceptions

Les lacunes de la proposition de loi limitent la capacité de la loi à garantir que l'IA reste une force positive dans les vies. À l'heure actuelle, par exemple, la reconnaissance faciale par la police est interdite, sauf si les images sont capturées avec un retard ou si la technologie est utilisée pour retrouver des enfants disparus.

En outre, la loi est rigide. Si, dans deux ans, une application dangereuse de l'IA est utilisée dans un secteur imprévu, la loi ne prévoit aucun mécanisme permettant de la qualifier de "à haut risque".

Les législateurs de l'Union européenne ont approuvé mercredi des modifications au projet de règles sur l'intelligence artificielle afin d'inclure une interdiction de l'utilisation de la technologie dans la surveillance biométrique et d'obliger les systèmes d'IA générative comme ChatGPT à divulguer le contenu généré par l'IA.

Les modifications apportées à la proposition de loi historique de la Commission européenne visant à protéger les citoyens des dangers de la technologie pourraient provoquer un conflit avec les pays de l'UE qui s'opposent à une interdiction totale de l'utilisation de l'IA dans la surveillance biométrique.

Le Leverhulme Centre for the Future of Intelligence et le Centre for the Study of Existential Risk, deux institutions de premier plan de l'université de Cambridge, ont fait part à la Commission européenne de leurs commentaires sur la proposition de loi européenne sur l'IA. Ils espèrent que la loi contribuera à établir des normes internationales pour permettre les avantages et réduire les risques de l'IA. L'une de leurs recommandations est de permettre de proposer des modifications à la liste des systèmes restreints et à haut risque, afin d'accroître la flexibilité de la réglementation.

Access Now, une organisation qui défend et étend les droits numériques des utilisateurs à risque, a également fait part de ses commentaires sur la loi européenne sur l'IA. Elle craint que la loi, dans sa forme actuelle, n'atteigne pas l'objectif de protection des droits fondamentaux. Plus précisément, elle estime que la proposition ne va pas assez loin pour protéger les droits fondamentaux en ce qui concerne les applications biométriques telles que la reconnaissance des émotions et les détecteurs de mensonges à l'aide de l'IA. Le projet actuel de loi sur l'IA préconise des obligations de transparence pour ces applications, mais Access Now recommande des mesures plus strictes pour réduire tous les risques associés, mesures telles que des interdictions.

Nathalie A. Smuha, chercheuse à la faculté de droit de la KU Leuven, Emma Ahmed-Rengers, chercheuse en droit et en informatique à l'université de Birmingham, et leurs collègues affirment que la loi européenne sur l'IA ne reconnaît pas toujours avec précision les torts et les préjudices associés aux différents types de systèmes d'IA et qu'elle n'en attribue pas la responsabilité de manière adéquate. Ils affirment également que la proposition ne fournit pas un cadre efficace pour l'application des droits et des devoirs légaux. La proposition néglige de garantir la transparence, la responsabilité et les droits de participation du public.

Le Center for Data Innovation, une organisation à but non lucratif axée sur l'innovation fondée sur les données, a publié un rapport affirmant que la loi européenne sur l'IA coûtera 31 milliards d'euros au cours des cinq prochaines années et réduira les investissements dans l'IA de près de 20 %. L'entrepreneur Meeri Haataja et l'universitaire Joanna Bryson ont publié leurs propres recherches, qui indiquent que le coût sera probablement bien moindre, car la réglementation ne couvre qu'une petite partie des applications de l'IA considérées comme présentant un risque élevé. En outre, l'analyse des coûts ne tient pas compte de tous les avantages de la réglementation pour le public. Enfin, le CEPS, un groupe de réflexion et un forum de débat sur les affaires européennes, a publié sa propre analyse des estimations de coûts et est parvenu à une conclusion similaire à celle de M. Haataja et de Mme Bryson.

Dans le projet de loi européen actuel, les systèmes d'IA susceptibles d'être utilisés pour influencer les électeurs et le résultat des élections, ainsi que les systèmes utilisés par les plateformes de médias sociaux comptant plus de 45 millions d'utilisateurs, ont été ajoutés à la liste des systèmes à haut risque. Meta et Twitter font partie de cette catégorie.

« L'IA soulève de nombreuses questions - sur le plan social, éthique et économique. Mais ce n'est pas le moment d'appuyer sur un bouton "pause". Au contraire, il faut agir vite et prendre ses responsabilités », a déclaré Thierry Breton, commissaire européen chargé de l'industrie. Il a indiqué qu'il se rendrait aux États-Unis la semaine prochaine pour rencontrer Mark Zuckerberg, PDG de Meta, et Altman, de l'OpenAI, afin de discuter du projet de loi sur l'IA.

Sources : Reuters, EU

Et vous ?

Quel est votre avis sur le sujet ?

À votre avis, le règlement proposé garantit-il le respect des droits fondamentaux et des principes éthiques de l’Union européenne ?

Quels peuvent être les avantages et les inconvénients d’une approche harmonisée et horizontale de la réglementation de l’IA au niveau européen ?

Voir aussi :

L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

ChatGPT : un projet de loi de l'UE pourrait obliger les outils d'IA à révéler le matériel protégé par le droit d'auteur, utilisé dans la construction de leurs systèmes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 27/10/2023 à 9:41
il prévoit la création d'un organisme international de l'IA
Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 14/02/2024 à 13:03
L'UE c'est vraimment le bal de la corruption. Quand je pense que la parlementaire grec qui c'était fait choper a recevoir du blé du Qatar a put tranquillement reprendre son poste comme si de rien n'était... C'est vraiment a vomir.
2  1