IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale,
La réglementation prévoit de lourdes amendes en cas de manquement

Le , par Bill Fassinou

1PARTAGES

10  0 
Le Parlement européen a adopté mercredi le projet de loi "AI Act" qui imposerait de nouvelles restrictions aux utilisations considérées comme les plus risquées de cette technologie. Il limiterait considérablement l'utilisation des logiciels de reconnaissance faciale et exigerait des fabricants de systèmes d'IA tels que les chatbots qu'ils divulguent davantage d'informations sur les données utilisées pour créer leurs programmes. Le vote n'est qu'une étape dans un processus plus long. La version finale de la loi ne devrait pas être adoptée avant la fin de l'année. Mais elle est déjà perçue comme un modèle potentiel pour les décideurs politiques du monde entier.

L'UE prend la tête du peloton en matière de réglementation de l'IA

La loi européenne sur l'IA (EU AI Act) est une proposition visant à réglementer les systèmes d'IA modernes et à encadrer leur développement. Elle a été proposée par la Commission européenne le 21 avril 2021 et constitue la première loi sur l'IA émanant d'une autorité de régulation majeure dans le monde. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’IA. La pierre angulaire du projet de loi est un système de classification qui détermine le niveau de risque (inacceptable, élevé et limité ou minimal) qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne.

Dans un premier temps, les applications et les systèmes qui créent un risque inacceptable - dont les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine - sont interdits. Ensuite, les applications à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques. Enfin, les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la législation. Le but est de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’UE.


Les législateurs de l'UE ont approuvé mercredi plusieurs modifications au projet de règles sur l'IA pour inclure une interdiction de l'utilisation de la technologie dans la surveillance biométrique et obliger les systèmes d'IA générative comme ChatGPT à divulguer le contenu généré par l'IA. Selon certains critiques de la proposition, ces modifications pourraient provoquer un conflit avec les pays de l'UE qui s'opposent à une interdiction totale de l'utilisation de l'IA dans la surveillance biométrique. D'autres amendements n'ont toutefois pas été adoptés. Les législateurs de l'UE affirment que la loi est nécessaire pour prévenir les risques liés à l'IA.

En effet, l'adoption rapide du chatbot d'IA ChatGPT d'OpenAI et d'autres chatbots a conduit des scientifiques de haut niveau spécialisés dans l'IA et des dirigeants d'entreprises - dont Elon Musk de Tesla et Sam Altman d'OpenAI - à évoquer les risques que cette technologie pourrait avoir sur la société. « Alors que les grandes entreprises technologiques tirent la sonnette d'alarme au sujet de leurs propres créations, l'Europe est allée de l'avant et a proposé une réponse concrète aux risques que l'IA commence à poser », a déclaré Brando Benifei, corapporteur du projet de loi. Le vote de mercredi n'est qu'une étape dans un processus plus long.

La version finale de la loi ne devrait pas être adoptée avant la fin de l'année. L'UE est toutefois plus avancée que les États-Unis et d'autres grands gouvernements occidentaux en matière de réglementation de l'IA. Les 27 États membres débattent du sujet depuis plus de deux ans, et la question a pris une nouvelle ampleur après la sortie, à la fin de l'année dernière, de ChatGPT, qui a intensifié les inquiétudes concernant les effets potentiels de la technologie sur l'emploi et la société. La prochaine étape consiste en des négociations tripartites entre les États membres, le Parlement et la Commission européenne.

Ces négociations risquent de subir d'autres changements lorsqu'ils s'efforceront de s'accorder sur la formulation. Les analystes estiment qu'il pourrait s'écouler des années avant que les règles n'entrent pleinement en vigueur. Brando Benifei, membre italien du Parlement européen qui codirige les travaux sur la loi sur l'IA, a déclaré qu'il ferait pression pour que les règles soient adoptées plus rapidement pour les technologies en évolution rapide telle que l'IA générative.

Comment l'UE compte-t-elle appliquer sa nouvelle législation sur l'IA ?

Comme mentionné plus haut, l'un des principaux objectifs de l'UE est de se prémunir contre les menaces que l'IA fait peser sur la santé et la sécurité et de protéger les valeurs et les droits fondamentaux. Cela signifie que certaines utilisations de l'IA sont absolument à proscrire, comme les systèmes de "notation sociale" qui jugent les gens en fonction de leur comportement. Est également interdite l'IA qui exploite les personnes vulnérables, y compris les enfants, ou qui utilise une manipulation subliminale susceptible de causer des dommages, par exemple un jouet interactif parlant qui encourage un comportement dangereux.

Les outils de police prédictive, qui analysent les données pour prévoir qui commettra des crimes, sont également interdits. De plus, un amendement controversé visant à autoriser des exceptions pour les forces de l'ordre, telles que la recherche d'enfants disparus ou la prévention de menaces terroristes, n'a pas été adopté. Les systèmes d'IA utilisés dans des catégories telles que l'emploi et l'éducation, qui pourraient affecter le cours de la vie d'une personne, sont soumis à des exigences strictes, telles que la transparence avec les utilisateurs et la prise de mesures pour évaluer et réduire les risques de partialité des algorithmes.

La plupart des systèmes d'IA, tels que les jeux vidéo ou les filtres antispam, entrent dans la catégorie des systèmes à risque faible ou nul. L'un des principaux ajouts est l'obligation de documenter de manière exhaustive tout matériel protégé par des droits d'auteur utilisé pour enseigner aux systèmes d'IA comment générer du texte, des images, des vidéos et de la musique semblables à du travail humain. Les créateurs de contenu sauraient ainsi si leurs billets de blogue, leurs livres numériques, leurs articles scientifiques ou leurs chansons ont été utilisés pour former des algorithmes qui alimentent des systèmes comme ChatGPT.

Ils pourraient alors décider si leur travail a été copié et demander réparation. En fin de compte, il appartiendra aux 27 États membres de l'UE de faire appliquer les nouvelles règles sur l'IA. Les régulateurs étatiques pourraient obliger les entreprises à retirer leurs applications du marché. Dans les cas extrêmes, les infractions peuvent donner lieu à des amendes allant jusqu'à 40 millions d'euros (43 millions de dollars) ou 7 % du chiffre d'affaires annuel mondial d'une entreprise, ce qui, dans le cas des grandes entreprises technologiques telles que Google, Meta et Microsoft, peut représenter plusieurs milliards d'euros.

Partout, de Washington à Pékin, les décideurs politiques se lancent dans une course pour contrôler l'évolution de l'IA qui inquiète même certains de ses premiers créateurs. Aux États-Unis, la Maison-Blanche a publié des idées politiques qui comprennent des règles pour tester les systèmes d'IA avant qu'ils ne soient accessibles au public et pour protéger les droits à la vie privée. En Chine, un projet de règles dévoilé en avril obligerait les créateurs de chatbots à adhérer aux règles strictes de censure du pays. Pékin exerce également un contrôle accru sur la manière dont les fabricants de systèmes d'IA utilisent les données.

L'efficacité d'une réglementation de l'IA n'est pas claire. Signe que les nouvelles capacités de la technologie émergente apparemment plus vite que les législateurs ne sont en mesure d'y répondre, les premières versions de la loi européenne n'accordaient pas beaucoup d'attention aux systèmes d'IA dits génératifs, comme ChatGPT, qui peuvent produire du texte, des images et des vidéos en réponse à des messages-guides.

Pourquoi la réglementation adoptée par l'UE est-elle si importante ?

Les entreprises de l'UE ne figurent pas parmi les grands acteurs du développement de l'IA de pointe. Ce rôle est dévolu aux États-Unis et à la Chine. Cela dit, Bruxelles joue souvent un rôle de précurseur avec des réglementations qui tendent à devenir des normes mondiales de facto et est devenue une pionnière dans les efforts visant à cibler le pouvoir des grandes entreprises technologiques. Selon les experts, la taille même du marché unique de l'UE, qui compte 450 millions de consommateurs, permet aux entreprises de se conformer plus facilement à la réglementation que de développer des produits différents pour différentes régions.

Mais selon les experts, il ne s'agit pas seulement d'une mesure de répression. En établissant des règles communes pour l'IA, Bruxelles tente également de développer le marché en inspirant confiance aux utilisateurs. « Le fait qu'il s'agisse d'une loi qui peut être appliquée et que les entreprises seront tenues pour responsables est important, car d'autres pays comme les États-Unis, Singapour et la Grande-Bretagne se sont contentés d'offrir des "orientations et des recommandations. D'autres pays pourraient vouloir adapter et copier les règles de l'UE », a déclaré Kris Shrishak, technologue et membre du Conseil irlandais pour les libertés civiles.

Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.

« L'UE est en passe de devenir un leader en matière de réglementation de l'IA, mais il reste à voir si elle sera à la pointe de l'innovation dans ce domaine. Les nouvelles règles de l'Europe en matière d'IA doivent traiter efficacement des risques clairement définis, tout en laissant suffisamment de flexibilité aux développeurs pour qu'ils puissent fournir des applications d'IA utiles au bénéfice de tous les Européens », a déclaré Boniface de Champris, responsable politique de la Computer and Communications Industry Association, un groupe de pression représentant les entreprises du secteur des technologies.

Pour combler le vide avant l'entrée en vigueur de la législation, l'Europe et les États-Unis élaborent un code de conduite volontaire dont les responsables ont promis, fin mai, qu'il serait rédigé dans les semaines à venir et qu'il pourrait être étendu à d'autres "pays partageant les mêmes idées".

Sources : Le Parlement européen, EU AI Act

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la réglementation de l'UE de sur l'IA ?
La trouvez-vous complète ou souffre-t-elle d'insuffisances ?
La réglementation de l'UE sur l'IA favorise-t-elle l'innovation ?

Voir aussi

L'Europe se prépare à voter une législation sur l'IA avec des amendes potentielles de 7% sur les revenus, cette législation pourrait créer des divergences avec les approches américaine et britannique

Les contenus générés par l'IA générative devraient être étiquetés afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire européenne Jourova

Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre chevronné https://www.developpez.com
Le 15/06/2023 à 1:24
Je suis d'accord avec cette loi dans les grandes ligne.

Par contre j'ai une interrogation ; plus ça va, plus les IA type OpanAI vont pouvoir êtres fabriqués par des individus, et plus forcément par des entreprises. Du coup, cela risque d'être impossible à réguler pour l'EU. Et si régulation, passage dans un régime autoritaire de censure sur les DNS et ainsi de suite... Surtout que les initiatives comme celle-si se multiplies : https://gpt4all.io/index.html

D'ailleurs :

Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.
C'est justement Meta qui à ouvert les sources de ses algorithmes au chercheurs, puis qui a été victime d'une fuite.
1  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 05/07/2023 à 23:06
comme d'hab l'europe ce tire une balle dans le pied dans tous les domaines.

a qui profite le crime ? aux etats unis !

Donc les dirigeant de l'europe doivent etre a leur botte...
0  0 
Avatar de j2blather
Nouveau Candidat au Club https://www.developpez.com
Le 18/06/2023 à 14:15
Thank you for mentioning our article (mine and Meeri Haataja) showing the true costs of the AI Act, which are nowhere near as high as the enemies of Europe's lead in digital regulation might have you believe, but are also not zero, as the EC had hoped. The full article is freely available here https://ideas.repec.org/p/osf/socarx/8nzb4.html

We also just a week ago published our concerns about the new EP version of the Act, in a hope of influencing the final document. This is also freely available, here: https://journals.sas.ac.uk/amicus/ar...icle/view/5612
1  3