IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

AI Act : les États membres de l'UE approuvent à l'unanimité la version finale de la loi sur l'IA
Thierry Breton parle « d'équilibre parfait trouvé par les négociateurs entre innovation et sécurité »

Le , par Stéphane le calme

7PARTAGES

17  0 
Le vendredi 2 février 2024, le comité des représentants permanents du Conseil des ministres de l’UE (Coreper) a voté en faveur de la loi sur l’intelligence artificielle (IA), le premier règlement au monde dédié à cette technologie. Ce texte vise à garantir que les systèmes d’IA mis sur le marché européen et utilisés dans l’UE soient sûrs et respectent les droits fondamentaux et les valeurs de l’UE. Il a pour ambition de stimuler l’investissement et l’innovation dans le domaine de l’IA en Europe

Dans une déclaration faite le X, la présidence belge du Conseil a indiqué que le Coreper avait « confirmé le texte de compromis final trouvé sur la proposition relative aux règles harmonisées sur l'intelligence artificielle ». Elle a décrit la loi sur l'IA comme « une étape importante, marquant les premières règles pour l'IA dans l'UE, visant à la rendre sûre et dans le respect des droits fondamentaux de l'UE ».

Ce dernier développement intervient alors que des rapports récents indiquaient que la France, l'Allemagne, l'Italie et l'Autriche cherchaient à apporter des modifications de dernière minute au texte avant qu'il ne soit soumis au vote du Coreper. La principale préoccupation était apparemment de savoir si le degré de réglementation envisagé dans le cadre de la loi sur l'IA aurait un effet dissuasif sur l'innovation technique dans l'UE.

« Au moins dans une certaine mesure, les coups de sabre politiques de ces derniers jours pourraient avoir servi à positionner le public plutôt qu'à introduire des changements durables au dernier moment », a déclaré Nils Rauer, co-responsable mondial de l'IA.

Une validation sous tension

Lorsque les décideurs politiques de l'UE ont annoncé qu'ils avaient trouvé un compromis final sur le contenu de la loi sur l'IA en décembre, la percée a été saluée comme une étape pionnière que l'Europe devrait célébrer dans le contexte de la montée en puissance d'outils d'IA omniprésents tels que le ChatGPT d'OpenAI et le Bard de Google.

Mais cette avancée a déplu à certains pays de l'UE. Au cours des dernières semaines, l'Allemagne et la France, principales économies de l'Union, ainsi que l'Autriche, ont laissé entendre qu'elles pourraient s'opposer au texte lors du vote de vendredi.

Alors que Vienne s'en prend aux dispositions relatives à la protection des données, Paris et Berlin craignent que les règles applicables aux modèles d'IA avancés ne paralysent les champions européens de l'IA en herbe, tels que Mistral (France) et Aleph Alpha (Allemagne). L'Italie, parfois critique à l'égard de la loi sur l'IA, ayant gardé le silence sur ses intentions, le sort de la loi sur l'IA a soudain été remis en question, car quatre pays opposés suffiraient à faire dérailler la loi pour de bon.

Le cabinet du ministre français de l'économie Bruno Le Maire a appelé à un nouveau cycle de négociations avec le Parlement européen pour répondre à ses préoccupations. Cette perspective a horrifié la présidence belge du Conseil, en raison du manque de temps pour de nouvelles négociations. Pour ne rien arranger, le Parlement lui-même était aux prises avec une querelle larvée sur les règles de reconnaissance faciale de la loi sur l'IA, déclenchée par l'eurodéputée Svenja Hahn, partisane de la protection de la vie privée.

Finalement, la question a été résolue grâce au mélange familier d'offensive de relations publiques et de manœuvres diplomatiques de l'UE. La Commission a fait monter la pression en annonçant une série de mesures en faveur de l'innovation ciblant le secteur de l'IA, et a créé d'un seul coup l'Office de l'intelligence artificielle de l'UE, un organisme chargé de faire appliquer la loi sur l'IA.

Un « groupe d'experts » dont la fonction est de « conseiller et d'assister »

Une déclaration de la Commission européenne, diffusée parmi les diplomates de l'UE avant le vote, révèle des plans pour mettre en place un « groupe d'experts » comprenant les autorités des pays membres de l'UE. Ce groupe aura pour fonction de « conseiller et d'assister » la Commission dans l'application et la mise en œuvre de la loi sur l'IA.

En particulier, le groupe d'experts aidera la Commission à éviter les chevauchements entre la loi sur l'IA et d'autres règlements de l'UE, notamment le règlement sur les dispositifs médicaux, le règlement sur les dispositifs de diagnostic in vitro et le règlement sur les machines.

La déclaration charge également l'Office de l'IA de fournir des « orientations détaillées » aux développeurs de modèles d'IA avancés « à usage général » sur la divulgation d'un résumé des documents protégés par le droit d'auteur utilisés pour former le logiciel. Elle réaffirme également l'engagement de la Commission à encourager l'innovation dans le secteur de l'IA et à « garantir un cadre juridique souple et à l'épreuve du temps » lors de la mise à jour de certains aspects du texte concernant l'IA avancée.

Enfin, la déclaration permet aux États membres d'adopter des règles et des garanties plus restrictives pour des technologies telles que la reconnaissance faciale, la reconnaissance émotionnelle et la catégorisation biométrique.


Des avancées dans le texte

En vertu de la loi européenne sur l'IA, un nouveau système de réglementation fondé sur le risque s'appliquera à l'IA dans tous les États membres de l'UE.

La loi sur l’IA repose sur une approche basée sur le risque : plus le risque est élevé, plus les règles sont strictes. Certains usages de l’IA seront interdits, tandis que les exigences les plus sévères concerneront les systèmes d’IA à haut risque et leurs fournisseurs et utilisateurs. La technologie devra, par exemple, satisfaire à des exigences obligatoires en matière de gestion des risques, de qualité des données, de transparence, de supervision humaine et d'exactitude, tandis que les fournisseurs et les utilisateurs devront s'acquitter d'une série d'obligations, notamment en matière d'enregistrement, de gestion de la qualité, de suivi, de tenue de registres et de signalement des incidents.

Il est également question d'une obligation de transparence dans le règlement : les entreprises doivent livrer un résumé des données d’entraînement des IA génératives, ce qui permet aux auteurs de savoir si leurs contenus ont été exploités et, le cas échéant de demander une compensation. Mais l'exécutif français est parvenu à intégrer la mention « secret des affaires » qui atténue l’obligation de transparence. Pour les acteurs du marché comme Mistral, publier le contenu de leur base de données pourrait favoriser leurs concurrents.

Dans le cas des modèles d'IA à usage général qui présentent un « risque systémique », le texte évoque des obligations concernant l'évaluation des modèles et les tests contradictoires.

La loi sur l’IA prévoit également un système de gouvernance avec des pouvoirs de contrôle au niveau de l’UE, ainsi qu’une obligation pour les utilisateurs de systèmes d’IA à haut risque de réaliser une évaluation d’impact sur les droits fondamentaux avant de mettre en œuvre un système d’IA.

Enfin, a également été obtenue une révision régulière des différentes obligations du texte.

Conclusion

En décembre 2023, la présidence espagnole du Conseil et le Parlement européen ont annoncé qu’ils étaient parvenus à un « accord provisoire » sur la proposition de loi sur l’IA. Carme Artigas Brugal, secrétaire d'État espagnole à la numérisation et à l'intelligence artificielle, l'a formulé en ces termes :

Il s'agit là d'une réalisation historique et d'un pas de géant vers l'avenir! L'accord conclu aujourd'hui répond efficacement à un défi mondial dans un environnement technologique en évolution rapide concernant un domaine clé pour l'avenir de nos sociétés et de nos économies. Et dans cette entreprise, nous sommes parvenus à maintenir un équilibre extrêmement délicat: encourager l'innovation et l'adoption de l'intelligence artificielle dans toute l'Europe tout en respectant pleinement les droits fondamentaux de nos citoyens.
La prochaine étape du processus législatif consistait à fixer le libellé d’un texte de compromis et à le soumettre à l’approbation du Coreper. Avec le feu vert du Coreper, le texte proposé sera examiné par les députés européens qui siègent aux deux commissions du Parlement qui sont chargées du contrôle de la proposition de loi sur l’IA au nom du Parlement : les commissions du marché intérieur et de la protection des consommateurs et des libertés civiles, de la justice et des affaires intérieures. Si les deux commissions sont satisfaites du langage législatif, la proposition sera soumise au vote de tous les députés européens lors d’une session plénière du Parlement, probablement en avril, avant que le Conseil ne vote lui-même sur l’adoption du texte.

Les législateurs mécontents, favorables à la protection de la vie privée, pourraient encore essayer d'entraver la progression de la loi en proposant des amendements qui, s'ils sont adoptés, devront faire l'objet de nouvelles négociations avec le Conseil. Mais la plupart des personnes qui ont travaillé sur la loi sur l'IA au sein du Parlement sont convaincues que la loi sera adoptée sans changement.

L'AI Act devrait entrer en vigueur en 2025.

Sources : Conseil de l'Union européenne, COMECE

Et vous ?

Quels sont les avantages et les inconvénients de la loi sur l’IA pour les citoyens européens ?
La loi sur l’IA est-elle suffisamment claire et complète pour encadrer les différents usages de l’IA ?
La loi sur l’IA permet-elle de garantir un niveau élevé de protection des droits fondamentaux et des valeurs de l’UE ?
La loi sur l’IA favorise-t-elle la compétitivité et l’innovation des acteurs européens de l’IA ?
La loi sur l’IA peut-elle servir de modèle pour d’autres régions du monde ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 02/08/2024 à 7:19
Petit pastiche d’une citation de Georges Clemenceau:

L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/06/2024 à 0:31
Citation Envoyé par kain_tn Voir le message
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
Il y a eu le métavers dernièrement, mais ça à foiré (comme tout le monde l'avais prévu ici).
2  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 04/06/2024 à 10:56
Qu'y a-t-il de plus effrayant que l'IA incontrôlée ?
Les humains
2  0