Les législateurs européens se sont rapprochés de l'adoption de nouvelles règles régissant les outils d'intelligence artificielle tels que ChatGPT, à la suite d'un vote serré jeudi où ils ont convenu d'un projet de loi plus strict. Les commissions du Parlement européen chargées de la question ont approuvé jeudi des modifications au projet de règles visant à encadrer l’intelligence artificielle générative, comme ChatGPT, et ont proposé une interdiction de la surveillance faciale, rapprochant ainsi l’UE de la fixation de règles phares pour l’IA, ouvrant la voie à l'adoption en plénière à la mi-juin.
La loi de l'UE sur l'intelligence artificielle (AI Act) a été initialement proposée en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonction des risques perçus, et seraient effectivement les premières lois axées sur l'IA introduites par un organisme de réglementation majeur. Proposé par la Commission européenne il y a deux ans, il vise à établir la norme pour l’IA avant la Chine et les États-Unis, alors que l’utilisation croissante de la technologie a suscité des craintes de pertes d’emplois, de désinformation et d’atteintes aux droits d’auteur.
Une question de classification
L’AI Act est un projet de règlement proposé par la Commission européenne le 21 avril 2021, qui vise à introduire un cadre réglementaire et juridique commun pour l’intelligence artificielle. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.
Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.
La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.
Les applications d’IA considérées comme inacceptables sont celles qui portent atteinte à la dignité humaine, comme la manipulation du comportement humain ou l’exploitation des vulnérabilités. Ces applications seront interdites dans l’UE.
Les applications d’IA considérées comme à risque élevé sont celles qui peuvent avoir un impact important sur la vie ou les droits des personnes, comme la reconnaissance faciale, les systèmes de recrutement ou les notes de crédit. Ces applications seront soumises à des exigences strictes en matière de qualité des données, de documentation, de transparence, de supervision humaine et de robustesse.
Les applications d’IA considérées comme à risque limité sont celles qui peuvent induire en erreur les utilisateurs ou les exposer à un choix limité, comme les chatbots ou les filtres vidéo. Ces applications devront être clairement signalées comme étant basées sur l’IA.
Les applications d’IA considérées comme à risque minimal sont celles qui présentent un faible potentiel de préjudice pour les personnes ou la société, comme les jeux vidéo ou les filtres anti-spam. Ces applications seront exemptées de toute obligation spécifique.
Selon le compromis trouvé par les députés européens, le texte sera soumis au vote de l’ensemble du Parlement le mois prochain, après quoi les législateurs finaliseront les détails avec les pays de l’UE et la Commission européenne. Les députés européens ont convenu d’interdire l’utilisation de la reconnaissance faciale dans les espaces publics, les outils de police prédictive et d’imposer de nouvelles mesures de transparence aux applications d’IA générative comme ChatGPT.
IA à usage général
La version originale de la loi sur l'IA n'incluait pas les systèmes sans objectif spécifique dans son champ d'application. Le succès rapide de ChatGPT et d'autres grands modèles de langage a poussé les législateurs européens à se demander comment réglementer au mieux ce type d'IA. Le résultat a été une approche à plusieurs niveaux.
Le livre de règles de l'IA ne couvrira pas les systèmes d'IA à usage général par défaut. L'essentiel des obligations incombera aux opérateurs économiques qui intègrent ces systèmes dans une application considérée à haut risque.
Cependant, les fournisseurs d'IA à usage général devraient soutenir la conformité des opérateurs en aval en fournissant toutes les informations et la documentation pertinentes sur le modèle d'IA.
Des exigences plus strictes sont proposées pour les modèles de base, de puissants systèmes d'IA à usage général comme Stable Diffusion qui peuvent alimenter d'autres applications d'IA. Les obligations portent sur la gestion des risques, la gouvernance des données et le niveau de robustesse du modèle de fondation, à valider par des experts indépendants.
Le niveau supérieur concerne les modèles d'IA génératifs comme ChatGPT, qui devraient divulguer chaque fois qu'un texte est généré par l'IA et fournir un résumé détaillé des données de formation couvertes par la loi sur le droit d'auteur.
Catégorisation à haut risque
Le règlement introduit un régime plus strict pour les applications d'IA à haut risque. Initialement, le risque élevé a été déterminé sur la base d'une liste de domaines critiques et de cas d'utilisation figurant à l'annexe III (voire texte original de la proposition de loi en source).
Cependant, les députés ont supprimé cet automatisme, ajoutant comme couche supplémentaire que pour être classé comme à haut risque, un système d'IA devrait également présenter un risque important de nuire à la santé, à la sécurité ou aux droits fondamentaux des personnes.
Si les systèmes d'IA relèvent de l'annexe III, mais que les fournisseurs estiment qu'il n'y a pas de risque significatif, ils devront en informer l'autorité compétente, qui disposera de trois mois pour s'y opposer. Les fournisseurs pourront lancer leur solution d'IA entre-temps, mais les erreurs de classification seront passibles de sanctions.
L'annexe III a également été considérablement modifiée, ce qui rend la formulation plus précise dans les domaines des infrastructures critiques, de l'éducation, de l'emploi et de l'accès aux services essentiels. Les domaines de l'application de la loi, du contrôle des migrations et de l'administration de la justice ont été élargis.
Les systèmes de recommandation des plateformes de médias sociaux désignées comme de très grandes plateformes en ligne en vertu de la loi sur les services numériques ont été ajoutés.
Obligations à haut risque
Le texte du Parlement européen a rendu les obligations des fournisseurs d'IA à haut risque beaucoup plus prescriptives, notamment en matière de gestion des risques, de gouvernance des données, de documentation technique et de tenue de registres.
Une toute nouvelle exigence a été introduite pour les utilisateurs de solutions d'IA à haut risque de procéder à une évaluation de l'impact sur les droits fondamentaux en tenant compte d'aspects tels que l'impact négatif potentiel sur les groupes marginalisés et l'environnement.
Gouvernance et application
Parmi les législateurs de l'UE, il y a eu un consensus pour assurer un élément de centralisation de l'architecture d'exécution, en particulier pour les affaires transfrontalières. Le co-rapporteur Dragoș Tudorache a proposé la création d'un bureau de l'IA, un nouvel organe qui serait un peu en deçà d'une agence de l'UE.
Au cours des négociations, les tâches de l'Office de l'IA ont été considérablement réduites en raison du manque de marge de manœuvre sur le budget de l'UE. Ainsi, l'Office de l'IA s'est limitée à un rôle de soutien, tel que la fourniture d'orientations et la coordination d'enquêtes conjointes.
En revanche, la Commission a été chargée de régler les différends entre les autorités nationales sur les systèmes d'IA dangereux.
Les élus se montrent plutôt satisfaits... pour le moment
Dragos Tudorache, l’un des parlementaires chargés de rédiger les lois, a déclaré : « C’est un accord délicat. Mais c’est un package qui, je pense, donne quelque chose à tous ceux qui ont participé à ces négociations ». Et de continuer en disant « Nos sociétés attendent que nous fassions quelque chose de déterminé sur l’intelligence artificielle et l’impact qu’elle a sur leur vie. Il suffit d’allumer la télévision… ces deux ou trois derniers mois, et vous voyez chaque jour à quel point cela devient important pour les citoyens ».
Svenja Hahn, députée allemande, a déclaré que les négociations avaient obligé les députés conservateurs et de gauche à se rencontrer à mi-chemin. « Nous avons réussi à trouver un compromis qui permettrait de réglementer l’IA de manière proportionnée, de protéger les droits civils et de stimuler l’innovation et l’économie », a-t-elle dit.
« Ce vote est une étape importante dans la réglementation de l'IA et un signal clair du Parlement que les droits fondamentaux devraient en être la pierre angulaire », a déclaré l'eurodéputé des Verts Kim van Sparrentak. « L'IA doit être au service des personnes, de la société et de l'environnement, et non l'inverse ».
Le projet de loi sera soumis à un vote en plénière du Parlement européen en juin avant que les termes définitifs ne soient convenus lors de pourparlers en « trilogue » impliquant des représentants du Parlement européen, du Conseil de l'Union européenne et de la Commission européenne. Une fois les conditions finalisées et le projet de loi devenu loi, il y aurait une période de grâce d'environ deux ans pour permettre aux parties concernées de se conformer à la réglementation.
« Le Parlement européen doit entrer dans le trilogue avec la position la plus ferme possible pour protéger les droits de toutes les personnes à l'intérieur et à l'entrée de l'UE », a déclaré Caterina Rodelli, analyste des politiques européennes à l'organisation à but non lucratif Access Now.
Sources : Commission européenne, site dédié
Et vous ?
Quelle lecture en faites-vous ?
Voir aussi :
Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur
Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA
Les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright
Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA
Les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !