IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale,
La réglementation prévoit de lourdes amendes en cas de manquement

Le , par Bill Fassinou

1PARTAGES

10  0 
Le Parlement européen a adopté mercredi le projet de loi "AI Act" qui imposerait de nouvelles restrictions aux utilisations considérées comme les plus risquées de cette technologie. Il limiterait considérablement l'utilisation des logiciels de reconnaissance faciale et exigerait des fabricants de systèmes d'IA tels que les chatbots qu'ils divulguent davantage d'informations sur les données utilisées pour créer leurs programmes. Le vote n'est qu'une étape dans un processus plus long. La version finale de la loi ne devrait pas être adoptée avant la fin de l'année. Mais elle est déjà perçue comme un modèle potentiel pour les décideurs politiques du monde entier.

L'UE prend la tête du peloton en matière de réglementation de l'IA

La loi européenne sur l'IA (EU AI Act) est une proposition visant à réglementer les systèmes d'IA modernes et à encadrer leur développement. Elle a été proposée par la Commission européenne le 21 avril 2021 et constitue la première loi sur l'IA émanant d'une autorité de régulation majeure dans le monde. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’IA. La pierre angulaire du projet de loi est un système de classification qui détermine le niveau de risque (inacceptable, élevé et limité ou minimal) qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne.

Dans un premier temps, les applications et les systèmes qui créent un risque inacceptable - dont les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine - sont interdits. Ensuite, les applications à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques. Enfin, les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la législation. Le but est de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’UE.


Les législateurs de l'UE ont approuvé mercredi plusieurs modifications au projet de règles sur l'IA pour inclure une interdiction de l'utilisation de la technologie dans la surveillance biométrique et obliger les systèmes d'IA générative comme ChatGPT à divulguer le contenu généré par l'IA. Selon certains critiques de la proposition, ces modifications pourraient provoquer un conflit avec les pays de l'UE qui s'opposent à une interdiction totale de l'utilisation de l'IA dans la surveillance biométrique. D'autres amendements n'ont toutefois pas été adoptés. Les législateurs de l'UE affirment que la loi est nécessaire pour prévenir les risques liés à l'IA.

En effet, l'adoption rapide du chatbot d'IA ChatGPT d'OpenAI et d'autres chatbots a conduit des scientifiques de haut niveau spécialisés dans l'IA et des dirigeants d'entreprises - dont Elon Musk de Tesla et Sam Altman d'OpenAI - à évoquer les risques que cette technologie pourrait avoir sur la société. « Alors que les grandes entreprises technologiques tirent la sonnette d'alarme au sujet de leurs propres créations, l'Europe est allée de l'avant et a proposé une réponse concrète aux risques que l'IA commence à poser », a déclaré Brando Benifei, corapporteur du projet de loi. Le vote de mercredi n'est qu'une étape dans un processus plus long.

La version finale de la loi ne devrait pas être adoptée avant la fin de l'année. L'UE est toutefois plus avancée que les États-Unis et d'autres grands gouvernements occidentaux en matière de réglementation de l'IA. Les 27 États membres débattent du sujet depuis plus de deux ans, et la question a pris une nouvelle ampleur après la sortie, à la fin de l'année dernière, de ChatGPT, qui a intensifié les inquiétudes concernant les effets potentiels de la technologie sur l'emploi et la société. La prochaine étape consiste en des négociations tripartites entre les États membres, le Parlement et la Commission européenne.

Ces négociations risquent de subir d'autres changements lorsqu'ils s'efforceront de s'accorder sur la formulation. Les analystes estiment qu'il pourrait s'écouler des années avant que les règles n'entrent pleinement en vigueur. Brando Benifei, membre italien du Parlement européen qui codirige les travaux sur la loi sur l'IA, a déclaré qu'il ferait pression pour que les règles soient adoptées plus rapidement pour les technologies en évolution rapide telle que l'IA générative.

Comment l'UE compte-t-elle appliquer sa nouvelle législation sur l'IA ?

Comme mentionné plus haut, l'un des principaux objectifs de l'UE est de se prémunir contre les menaces que l'IA fait peser sur la santé et la sécurité et de protéger les valeurs et les droits fondamentaux. Cela signifie que certaines utilisations de l'IA sont absolument à proscrire, comme les systèmes de "notation sociale" qui jugent les gens en fonction de leur comportement. Est également interdite l'IA qui exploite les personnes vulnérables, y compris les enfants, ou qui utilise une manipulation subliminale susceptible de causer des dommages, par exemple un jouet interactif parlant qui encourage un comportement dangereux.

Les outils de police prédictive, qui analysent les données pour prévoir qui commettra des crimes, sont également interdits. De plus, un amendement controversé visant à autoriser des exceptions pour les forces de l'ordre, telles que la recherche d'enfants disparus ou la prévention de menaces terroristes, n'a pas été adopté. Les systèmes d'IA utilisés dans des catégories telles que l'emploi et l'éducation, qui pourraient affecter le cours de la vie d'une personne, sont soumis à des exigences strictes, telles que la transparence avec les utilisateurs et la prise de mesures pour évaluer et réduire les risques de partialité des algorithmes.

La plupart des systèmes d'IA, tels que les jeux vidéo ou les filtres antispam, entrent dans la catégorie des systèmes à risque faible ou nul. L'un des principaux ajouts est l'obligation de documenter de manière exhaustive tout matériel protégé par des droits d'auteur utilisé pour enseigner aux systèmes d'IA comment générer du texte, des images, des vidéos et de la musique semblables à du travail humain. Les créateurs de contenu sauraient ainsi si leurs billets de blogue, leurs livres numériques, leurs articles scientifiques ou leurs chansons ont été utilisés pour former des algorithmes qui alimentent des systèmes comme ChatGPT.

Ils pourraient alors décider si leur travail a été copié et demander réparation. En fin de compte, il appartiendra aux 27 États membres de l'UE de faire appliquer les nouvelles règles sur l'IA. Les régulateurs étatiques pourraient obliger les entreprises à retirer leurs applications du marché. Dans les cas extrêmes, les infractions peuvent donner lieu à des amendes allant jusqu'à 40 millions d'euros (43 millions de dollars) ou 7 % du chiffre d'affaires annuel mondial d'une entreprise, ce qui, dans le cas des grandes entreprises technologiques telles que Google, Meta et Microsoft, peut représenter plusieurs milliards d'euros.

Partout, de Washington à Pékin, les décideurs politiques se lancent dans une course pour contrôler l'évolution de l'IA qui inquiète même certains de ses premiers créateurs. Aux États-Unis, la Maison-Blanche a publié des idées politiques qui comprennent des règles pour tester les systèmes d'IA avant qu'ils ne soient accessibles au public et pour protéger les droits à la vie privée. En Chine, un projet de règles dévoilé en avril obligerait les créateurs de chatbots à adhérer aux règles strictes de censure du pays. Pékin exerce également un contrôle accru sur la manière dont les fabricants de systèmes d'IA utilisent les données.

L'efficacité d'une réglementation de l'IA n'est pas claire. Signe que les nouvelles capacités de la technologie émergente apparemment plus vite que les législateurs ne sont en mesure d'y répondre, les premières versions de la loi européenne n'accordaient pas beaucoup d'attention aux systèmes d'IA dits génératifs, comme ChatGPT, qui peuvent produire du texte, des images et des vidéos en réponse à des messages-guides.

Pourquoi la réglementation adoptée par l'UE est-elle si importante ?

Les entreprises de l'UE ne figurent pas parmi les grands acteurs du développement de l'IA de pointe. Ce rôle est dévolu aux États-Unis et à la Chine. Cela dit, Bruxelles joue souvent un rôle de précurseur avec des réglementations qui tendent à devenir des normes mondiales de facto et est devenue une pionnière dans les efforts visant à cibler le pouvoir des grandes entreprises technologiques. Selon les experts, la taille même du marché unique de l'UE, qui compte 450 millions de consommateurs, permet aux entreprises de se conformer plus facilement à la réglementation que de développer des produits différents pour différentes régions.

Mais selon les experts, il ne s'agit pas seulement d'une mesure de répression. En établissant des règles communes pour l'IA, Bruxelles tente également de développer le marché en inspirant confiance aux utilisateurs. « Le fait qu'il s'agisse d'une loi qui peut être appliquée et que les entreprises seront tenues pour responsables est important, car d'autres pays comme les États-Unis, Singapour et la Grande-Bretagne se sont contentés d'offrir des "orientations et des recommandations. D'autres pays pourraient vouloir adapter et copier les règles de l'UE », a déclaré Kris Shrishak, technologue et membre du Conseil irlandais pour les libertés civiles.

Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.

« L'UE est en passe de devenir un leader en matière de réglementation de l'IA, mais il reste à voir si elle sera à la pointe de l'innovation dans ce domaine. Les nouvelles règles de l'Europe en matière d'IA doivent traiter efficacement des risques clairement définis, tout en laissant suffisamment de flexibilité aux développeurs pour qu'ils puissent fournir des applications d'IA utiles au bénéfice de tous les Européens », a déclaré Boniface de Champris, responsable politique de la Computer and Communications Industry Association, un groupe de pression représentant les entreprises du secteur des technologies.

Pour combler le vide avant l'entrée en vigueur de la législation, l'Europe et les États-Unis élaborent un code de conduite volontaire dont les responsables ont promis, fin mai, qu'il serait rédigé dans les semaines à venir et qu'il pourrait être étendu à d'autres "pays partageant les mêmes idées".

Sources : Le Parlement européen, EU AI Act

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la réglementation de l'UE de sur l'IA ?
La trouvez-vous complète ou souffre-t-elle d'insuffisances ?
La réglementation de l'UE sur l'IA favorise-t-elle l'innovation ?

Voir aussi

L'Europe se prépare à voter une législation sur l'IA avec des amendes potentielles de 7% sur les revenus, cette législation pourrait créer des divergences avec les approches américaine et britannique

Les contenus générés par l'IA générative devraient être étiquetés afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire européenne Jourova

Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 15/06/2023 à 1:24
Je suis d'accord avec cette loi dans les grandes ligne.

Par contre j'ai une interrogation ; plus ça va, plus les IA type OpanAI vont pouvoir êtres fabriqués par des individus, et plus forcément par des entreprises. Du coup, cela risque d'être impossible à réguler pour l'EU. Et si régulation, passage dans un régime autoritaire de censure sur les DNS et ainsi de suite... Surtout que les initiatives comme celle-si se multiplies : https://gpt4all.io/index.html

D'ailleurs :

Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.
C'est justement Meta qui à ouvert les sources de ses algorithmes au chercheurs, puis qui a été victime d'une fuite.
1  0 
Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 27/10/2023 à 9:41
il prévoit la création d'un organisme international de l'IA
Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0