La résolution exige également que les systèmes d’IA soient transparents et responsables, et qu’ils indiquent clairement aux utilisateurs qu’ils interagissent avec une machine et non avec un humain. La résolution appelle à une réglementation plus stricte de l’IA dans les domaines de la santé, de l’éducation, de la sécurité et de l’emploi, où l’IA peut avoir un impact significatif sur la qualité de vie et les opportunités des citoyens. Le Parlement européen demande à la Commission européenne de présenter une proposition législative sur l’IA d’ici la fin de l’année, en tenant compte des principes éthiques et juridiques de l’Union européenne.
Qu'est-ce que la loi européenne sur l'IA ?
L'AI Act est une proposition de loi européenne sur l'intelligence artificielle (IA). Il s'agit de la première loi sur l'IA émanant d'une autorité de régulation majeure. La loi classe les applications de l'IA dans trois catégories de risque :
- les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
- les applications à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques ;
- les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Pourquoi faut-il s'en préoccuper ?
Les applications d'IA influencent les informations que vous voyez en ligne en prédisant le contenu qui vous intéresse, capturent et analysent les données des visages pour faire appliquer les lois ou personnaliser les publicités, et sont utilisées pour diagnostiquer et traiter le cancer. En d'autres termes, l'IA affecte de nombreux aspects de votre vie.
À l'instar du règlement général sur la protection des données (RGPD) de l'UE en 2018, la loi européenne sur l'IA pourrait devenir une norme mondiale, déterminant dans quelle mesure l'IA a un effet positif plutôt que négatif sur votre vie, où que vous soyez. Le règlement de l'UE sur l'IA fait déjà des vagues à l'échelle internationale. Fin septembre 2021, le Congrès brésilien a adopté un projet de loi créant un cadre juridique pour l'intelligence artificielle. Ce projet de loi doit encore être adopté par le Sénat brésilien.
La proposition de loi comporte plusieurs lacunes et exceptions
Les lacunes de la proposition de loi limitent la capacité de la loi à garantir que l'IA reste une force positive dans les vies. À l'heure actuelle, par exemple, la reconnaissance faciale par la police est interdite, sauf si les images sont capturées avec un retard ou si la technologie est utilisée pour retrouver des enfants disparus.
En outre, la loi est rigide. Si, dans deux ans, une application dangereuse de l'IA est utilisée dans un secteur imprévu, la loi ne prévoit aucun mécanisme permettant de la qualifier de "à haut risque".
Les législateurs de l'Union européenne ont approuvé mercredi des modifications au projet de règles sur l'intelligence artificielle afin d'inclure une interdiction de l'utilisation de la technologie dans la surveillance biométrique et d'obliger les systèmes d'IA générative comme ChatGPT à divulguer le contenu généré par l'IA.
Les modifications apportées à la proposition de loi historique de la Commission européenne visant à protéger les citoyens des dangers de la technologie pourraient provoquer un conflit avec les pays de l'UE qui s'opposent à une interdiction totale de l'utilisation de l'IA dans la surveillance biométrique.
Le Leverhulme Centre for the Future of Intelligence et le Centre for the Study of Existential Risk, deux institutions de premier plan de l'université de Cambridge, ont fait part à la Commission européenne de leurs commentaires sur la proposition de loi européenne sur l'IA. Ils espèrent que la loi contribuera à établir des normes internationales pour permettre les avantages et réduire les risques de l'IA. L'une de leurs recommandations est de permettre de proposer des modifications à la liste des systèmes restreints et à haut risque, afin d'accroître la flexibilité de la réglementation.
Access Now, une organisation qui défend et étend les droits numériques des utilisateurs à risque, a également fait part de ses commentaires sur la loi européenne sur l'IA. Elle craint que la loi, dans sa forme actuelle, n'atteigne pas l'objectif de protection des droits fondamentaux. Plus précisément, elle estime que la proposition ne va pas assez loin pour protéger les droits fondamentaux en ce qui concerne les applications biométriques telles que la reconnaissance des émotions et les détecteurs de mensonges à l'aide de l'IA. Le projet actuel de loi sur l'IA préconise des obligations de transparence pour ces applications, mais Access Now recommande des mesures plus strictes pour réduire tous les risques associés, mesures telles que des interdictions.
Nathalie A. Smuha, chercheuse à la faculté de droit de la KU Leuven, Emma Ahmed-Rengers, chercheuse en droit et en informatique à l'université de Birmingham, et leurs collègues affirment que la loi européenne sur l'IA ne reconnaît pas toujours avec précision les torts et les préjudices associés aux différents types de systèmes d'IA et qu'elle n'en attribue pas la responsabilité de manière adéquate. Ils affirment également que la proposition ne fournit pas un cadre efficace pour l'application des droits et des devoirs légaux. La proposition néglige de garantir la transparence, la responsabilité et les droits de participation du public.
Le Center for Data Innovation, une organisation à but non lucratif axée sur l'innovation fondée sur les données, a publié un rapport affirmant que la loi européenne sur l'IA coûtera 31 milliards d'euros au cours des cinq prochaines années et réduira les investissements dans l'IA de près de 20 %. L'entrepreneur Meeri Haataja et l'universitaire Joanna Bryson ont publié leurs propres recherches, qui indiquent que le coût sera probablement bien moindre, car la réglementation ne couvre qu'une petite partie des applications de l'IA considérées comme présentant un risque élevé. En outre, l'analyse des coûts ne tient pas compte de tous les avantages de la réglementation pour le public. Enfin, le CEPS, un groupe de réflexion et un forum de débat sur les affaires européennes, a publié sa propre analyse des estimations de coûts et est parvenu à une conclusion similaire à celle de M. Haataja et de Mme Bryson.
Dans le projet de loi européen actuel, les systèmes d'IA susceptibles d'être utilisés pour influencer les électeurs et le résultat des élections, ainsi que les systèmes utilisés par les plateformes de médias sociaux comptant plus de 45 millions d'utilisateurs, ont été ajoutés à la liste des systèmes à haut risque. Meta et Twitter font partie de cette catégorie.
« L'IA soulève de nombreuses questions - sur le plan social, éthique et économique. Mais ce n'est pas le moment d'appuyer sur un bouton "pause". Au contraire, il faut agir vite et prendre ses responsabilités », a déclaré Thierry Breton, commissaire européen chargé de l'industrie. Il a indiqué qu'il se rendrait aux États-Unis la semaine prochaine pour rencontrer Mark Zuckerberg, PDG de Meta, et Altman, de l'OpenAI, afin de discuter du projet de loi sur l'IA.
Sources : Reuters, EU
Et vous ?
Quel est votre avis sur le sujet ?
À votre avis, le règlement proposé garantit-il le respect des droits fondamentaux et des principes éthiques de l’Union européenne ?
Quels peuvent être les avantages et les inconvénients d’une approche harmonisée et horizontale de la réglementation de l’IA au niveau européen ?
Voir aussi :
L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur
ChatGPT : un projet de loi de l'UE pourrait obliger les outils d'IA à révéler le matériel protégé par le droit d'auteur, utilisé dans la construction de leurs systèmes