IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

AI Act : l'Europe peine à trouver un compromis sur la réglementation de l'IA générative. La France et l'Allemagne freinent les négociations
Pour éviter un cadre trop contraignant pour leurs champions

Le , par Stéphane le calme

0PARTAGES

9  0 
Les négociations autour des premières règles de l'Union européenne régissant l'intelligence artificielle semblaient prêtes à atteindre un point culminant dramatique mercredi, alors que les législateurs entament ce que certains espèrent être le dernier cycle de discussions sur cette législation historique. Ce qui sera décidé pourrait servir de modèle à d’autres gouvernements alors que les pays cherchent à élaborer des règles pour leur propre industrie de l’IA.

Avant la réunion, les législateurs et les gouvernements n’étaient pas parvenus à s’entendre sur des questions clés, notamment la réglementation de l’IA générative à croissance rapide et son utilisation par les forces de l’ordre. Il faut dire que la France et l'Allemagne ont changé d'avis et appelé plutôt à l'autorégulation, un revirement interprété comme une manœuvre visant à éviter de briser l'élan de leurs champions nationaux.

Les discussions, entamées mercredi, devraient reprendre vendredi 8 décembre au matin, a annoncé Thierry Breton, le commissaire européen au Numérique.


Le boom de l’IA générative a poussé les gouvernements du monde entier à se démener pour réglementer la technologie émergente, mais il a également accru le risque de bouleverser les efforts de l’Union européenne visant à approuver les premières règles globales en matière d’intelligence artificielle au monde.

Le projet de loi sur l’intelligence artificielle (ou AI Act en anglais) de l'UE a été salué comme un règlement pionnier. Mais comme le temps presse, il n’est pas certain que les pays membres parviendront à parvenir à un accord dans ce que les responsables espèrent être un dernier cycle de négociations à huis clos.

Les efforts déployés depuis des années par l’Europe pour élaborer des garde-fous en matière d’IA ont été entravés par l’émergence récente de systèmes d’IA génératifs comme ChatGPT d’OpenAI, qui ont ébloui le monde par leur capacité à produire un travail de type humain, mais ont suscité des craintes quant aux risques qu’ils posent.

Ces préoccupations ont poussé les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales comme le Groupe des 7 grandes démocraties dans la course pour réglementer cette technologie en développement rapide, même s’ils sont encore derrière l’Europe dans la matière.

L’AI Act vise à répondre aux préoccupations croissantes concernant l’IA, tout en favorisant sa croissance et son développement responsables au sein du bloc européen. Au cœur de la législation se trouvent quatre principes clés : la transparence, la surveillance humaine, la sécurité et le respect des droits fondamentaux.


Quelques points de friction

L’un des principaux points de friction concerne les modèles de base, les systèmes avancés qui sous-tendent les services d’IA à usage général comme ChatGPT d’OpenAI et le chatbot Bard de Google.

Également connus sous le nom de grands modèles de langage, ces systèmes sont formés sur de vastes quantités d’œuvres écrites et d’images récupérées sur Internet. Ils donnent aux systèmes d’IA générative la capacité de créer quelque chose de nouveau, contrairement à l’IA traditionnelle, qui traite les données et accomplit les tâches en utilisant des règles prédéterminées.

Après une journée de discussions difficiles entre les États membres et le Parlement européen, l'Union européenne a annoncé, ce jeudi 7 décembre, une pause jusqu'à vendredi matin. « De nombreux progrès ont été réalisés au cours des 22 dernières heures. Reprise des travaux demain à 9h00 », a annoncé sur X/Twitter le commissaire européen au Numérique, Thierry Breton, à l'origine de la proposition législative présentée en avril 2021.

« La France et l’Allemagne freinent des quatre fers sur ce projet de régulation pour des raisons de souveraineté. Nos deux pays redoutent qu’un cadre trop contraignant pénalise l’envol de leurs champions nationaux, Mistral AI chez nous et Aleph-Alpha outre-Rhin », déplore Jean-Baptiste Bouzige, président cofondateur d’Ekimetrics, une société de services numériques spécialisée dans l’IA et l’exploitation des données.

Approche basée sur le risque pour la réglementation de l’IA

Les règles proposées classent les applications d’IA en quatre niveaux de risque*:
  • Risque inacceptable*: ceux-ci sont totalement interdits, comme les systèmes d'IA conçus pour la notation sociale ou le contenu manipulateur des réseaux sociaux.
  • Risque élevé*: ceux-ci nécessitent des réglementations strictes, comprenant une surveillance humaine, des systèmes de gestion des risques robustes et des évaluations de conformité ex ante. Les exemples incluent la technologie de reconnaissance faciale et l’IA utilisées dans les infrastructures critiques.
  • Risque limité*: ces entreprises sont confrontées à des réglementations plus légères, axées sur les exigences de transparence et de tenue de registres.
  • Risque minimal*: ceux-ci ne nécessitent aucune intervention réglementaire spécifique.

Impact mondial de la loi sur l'IA

L’effort pionnier de l’UE en matière de réglementation de l’IA devrait avoir un impact mondial significatif. En tant que plus grand bloc commercial au monde, ses règles sont susceptibles d’influencer le développement et le déploiement des technologies d’IA à travers le monde. D’autres pays et régions surveillent déjà de près la situation, certains envisageant de mettre en place des cadres réglementaires similaires.

Pour Jean-Baptiste Bouzige, l’Europe gagnerait à affirmer sa singularité en imposant ses propres règles, en matière de transparence des algorithmes notamment. « Beaucoup d’intelligences artificielles s’apparentent encore trop souvent à des boîtes noires, dont on ne comprend même pas le fonctionnement. Il faudrait pouvoir soulever le capot de ces cerveaux, pour les auditer », estime-t-il.

Équilibrer l’innovation et l’éthique

La loi sur l’IA représente un équilibre délicat entre la promotion de l’innovation et l’atténuation des risques potentiels de cette technologie puissante. Alors que certaines parties prenantes, en particulier dans l’industrie technologique, expriment leurs inquiétudes quant à l’étouffement de l’innovation, d’autres soutiennent qu’une réglementation solide est nécessaire pour prévenir les dommages et renforcer la confiance du public dans l’IA.

Il faut également parler des dépenses énergétiques. À lui seul, l’entraînement de ChatGPT aurait nécessité quelque 3,5 millions de litres d’eau – destinés à refroidir ses unités de calcul - soit le volume utilisé dans la fabrication de 370 voitures de marque BMW. Bing Chat est tellement gourmand en puissance de calcul que Microsoft va louer des GPU chez Oracle. Microsoft utilisera l'infrastructure d'IA d'Oracle Cloud en complément de son infrastructure d'IA Azure

Afin d'éviter ces dépenses, Jean-Baptiste Bouzige estime que les intelligences artificielles gagneraient à se spécialiser en fonction des usages, pour résoudre des cas particuliers : « cela permettra ainsi de limiter la quantité de données à mémoriser, et donc de réduire la puissance de calcul indispensable, pour consommer moins de ressources ».


Des défis et des incertitudes demeurent

Alors que l’UE est sur le point de finaliser la loi sur l’IA, plusieurs défis et incertitudes demeurent. L’une des questions clés consiste à trouver le bon équilibre entre l’atténuation des risques et la promotion de l’innovation. En outre, garantir une application efficace dans les différents États membres de l’UE constituera une entreprise importante.

Les chercheurs ont averti que de puissants modèles de fondation, construits par une poignée de grandes entreprises technologiques, pourraient être utilisés pour intensifier la désinformation et la manipulation en ligne, les cyberattaques ou la création d’armes biologiques. Ils agissent comme des structures de base pour les développeurs de logiciels qui créent des services basés sur l'IA, de sorte que « si ces modèles sont pourris, tout ce qui est construit dessus le sera également – et les déployeurs ne seront pas en mesure de le réparer », a déclaré Avaaz, une organisation à but non lucratif.

Brando Benifei, un député italien au Parlement européen qui codirige les efforts de négociation de l’organisme, s’est montré optimiste quant à la résolution des différends avec les États membres.

Il y a eu « un certain mouvement » sur les modèles de base, même s’il y a « davantage de problèmes pour trouver un accord » sur les systèmes de reconnaissance faciale, a-t-il déclaré.


Conclusion

L'AI Act de l’UE est une étape importante vers la création d’un environnement réglementé pour l’intelligence artificielle, reflétant les valeurs de l’UE et protégeant les citoyens contre les risques potentiels associés à l’utilisation de l’IA. Avec son approche basée sur le risque, le projet de loi vise à promouvoir l’innovation tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux. Les prochaines étapes du processus législatif seront cruciales pour déterminer la forme finale de cette législation pionnière.

Source : Thierry Breton

Et vous ?

Quels sont les avantages et les inconvénients d’une réglementation stricte de l’IA au sein de l’UE ?
Comment l’AI Act pourrait-il influencer l’innovation et la compétitivité des entreprises européennes dans le domaine de l’IA ?
Les citoyens européens devraient-ils être impliqués dans le processus de décision concernant les applications d’IA à haut risque ? Si oui, de quelle manière ?
Quel impact l’AI Act de l’UE pourrait-il avoir sur la collaboration internationale en matière de recherche et de développement en IA ?
Comment l’UE peut-elle garantir que l’AI Act reste pertinent face à l’évolution rapide des technologies d’IA ?

Voir aussi :

Les modèles de langages coûtent 10 fois plus cher à développer dans certaines langues que dans d'autres, d'après l'analyse d'une chercheuse en IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
3  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/06/2024 à 0:31
Citation Envoyé par kain_tn Voir le message
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
Il y a eu le métavers dernièrement, mais ça à foiré (comme tout le monde l'avais prévu ici).
2  0 
Avatar de Fluxgraveon
Membre régulier https://www.developpez.com
Le 04/06/2024 à 10:56
Qu'y a-t-il de plus effrayant que l'IA incontrôlée ?
Les humains
2  0