IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques,
Elles font pression pour retirer "les modèles de base" de la réglementation

Le , par Mathis Lucas

2PARTAGES

7  0 
Des entreprises technologiques européennes et américaines font pression pour empêcher l'adoption de la loi européenne sur l'IA (EU AI Act). Les groupes d'intérêt représentant ces entreprises utilisent leurs influences et leurs relations politiques pour tenter de modifier radicalement les règles de l'UE par le biais d'un lobbying intensif. Ils cherchent à retirer les "modèles de base" - les modèles les plus puissants et les plus modernes, comme GPT-4 d'OpenAI - de la législation de l'UE. Ces groupes exigent en fait que la législation soit imposée seulement aux développeurs d'applications, alors que ces derniers ont un contrôle limité sur les modèles de base fournis par les grandes entreprises.

De nombreux experts en IA, ainsi que le public, ont exprimé leurs inquiétudes quant au fait que la loi européenne sur l’IA soit menacée par des lobbyistes qui tentent de supprimer la réglementation proposée sur les puissants systèmes d’IA connus sous le nom de "modèles de base". Ils ont récemment signé une lettre ouverte appelant les États membres de l'UE à réglementer l’IA plutôt que laisser les entreprises le faire elles-mêmes. Le bloc se prépare à finaliser le texte de la législation sur l’IA le 6 décembre. La lettre a été adressée au président français Emmanuel Macron, à la Première ministre italienne Giorgia Meloni et au chancelier allemand Olaf Scholz.

Pour rappel, le cadre réglementaire publié par l'UE en avril 2021 prévoyait d'imposer différents niveaux de contrôle réglementaire sur les systèmes d'IA en fonction de leur utilisation prévue. Ainsi, les cas d'utilisation à plus haut risque nécessiteraient des mesures telles que l'évaluation des risques et des mesures d'atténuation dans le cadre de la proposition. La législation de l'UE prend en compte tous les types de systèmes d'IA, y compris ce que les entreprises d'IA appellent "les modèles de base" (ou modèles fondamentaux). Les modèles de base sont des modèles à usage général et servent de point de départ pour la création de diverses applications d'IA.

La loi européenne sur l'IA devait être le premier texte législatif d'envergure au monde en matière d'IA. Mais les trois grands États membres - la France, l'Allemagne et l'Italie - ont décidé récemment de supprimer la partie de la loi qui vise à réglementer les grands modèles de base. Les modèles de base sous-tendent les logiciels d'IA les plus puissants au monde, notamment ChatGPT d'OpenAI et Bard de Google. Ces logiciels d'IA sont souvent complexes et se comportent d’une manière qui peut surprendre même leurs propres développeurs. Mais la France, l'Italie et l'Allemagne veulent que les fournisseurs de modèles de base se régulent eux-mêmes.

Ces pays demandent désormais à la présidence espagnole "une autorégulation obligatoire au moyen de codes de conduite pour les modèles de base". Cela mettrait la responsabilité sur l’application de l’IA, et non sur la technologie elle-même, ce qui n’est pas ce qui se produit habituellement. En d'autres termes, cette approche ferait peser la responsabilité sur ceux qui ont le moins d’influence dans l’écosystème de l’IA (les développeurs d’applications) tout en exonérant ceux qui créent et contrôlent ces modèles puissants : les Big Tech américaines et leurs startups européennes préférées. Les auteurs de la lettre affirment qu'il s'agit d'une décision dangereuse.

Cela a suscité un tollé dans la communauté de l'IA, y compris au sein du grand public, les critiques affirmant que le lobbying des Big Tech tente de faire dérailler la loi européenne sur l'IA. Selon les auteurs de la lettre, les grandes entreprises technologiques américaines, les pays européens, les startups européennes bien connectées et les anciens ministres français utilisent leur influence et leurs avantages politiques pour modifier radicalement la législation. Dans la lettre, les auteurs affirment que la législation est menacée en raison du recul de ces gouvernements qui étaient autrefois favorables à la réglementation. Mais que s'est-il passé ?

Au début, la France était l'un des principaux défenseurs de la nécessité de réglementer les modèles de base. Aujourd'hui, l'ancien ministre de l'Économie numérique du président français Emmanuel Macron, Cédric O, qui est cofondateur et actionnaire de l'influente startup française Mistral, s'est prononcé contre les réglementations qui pourraient avoir un impact important sur l'activité de son entreprise. Donc, son ton a changé. Jusqu'en 2022, en tant que ministre, Cédric O affirmait que l'UE a besoin de plus de réglementation sur les géants technologiques. En 2021, il avait déclaré vouloir freiner l'oligopole des Big Tech américains pour protéger l'intérêt public.

Cependant, son discours a soudainement changé vers cet été, juste après qu'il est devenu cofondateur et actionnaire de Mistral, dont les critiques affirment qu'il a un poids politique étrange. Peu de temps après, il a commencé à déclarer dans des interviews : « la loi européenne sur l’IA pourrait tuer notre entreprise ». À peu près à la même époque, la France a également commencé à plaider en faveur de l’exclusion des modèles de base. Ainsi, la France propose maintenant que les sociétés d'IA travaillant sur des modèles de base se régulent elles-mêmes en publiant certaines informations sur leurs modèles et en observant un code de bonne conduite.

La lettre, datée du 26 novembre, affirme que cela retarde l'approbation de la loi sur l'IA et que si une entreprise s'autorégule, cela met les droits de l'homme en danger, car elle peut donner la priorité à ses profits plutôt qu'à la sécurité publique et aux préoccupations éthiques. L'on ignore si la lettre aura l'effet escompté et fera changer d'avis les gouvernements français, italien et allemand. Certaines sources rapportent que la vaste offensive de lobbying s’est poursuivie après l’été. En octobre, des responsables français, allemands et italiens ont rencontré des représentants des entreprises d'IA pour discuter de la coopération industrielle en matière d’IA.

De l’autre côté de l’Atlantique, les géants technologiques américains ont fait pression sur l’UE pour qu’elle affaiblisse et supprime de la loi sur l'IA les règles en rapport avec les modèles de base. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq meilleurs lobbyistes qui ont fait pression contre la législation de l'UE. Ces géants technologiques recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer ces technologies sans surveillance stricte. Cela se fait en coulisse, mais en public, ils chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.

Certaines sources rapportent que les dirigeants de Google, OpenAI et Microsoft se sont tous rendus en Europe pour rencontrer des décideurs politiques au plus haut niveau, notamment des membres de commissions et des chefs d'État. Sundar Pichai, PDG de Google, aurait même réussi à rencontrer trois commissaires en une seule journée. Malgré ce lobbying intense, la réglementation proposée par l'UE est populaire auprès du public. Selon le sondage européen de Control AI publié mercredi par YouGov, plus des deux tiers des citoyens européens soutiennent la réglementation des modèles de base. Mais l'influence du public sur la législation est moindre.

Par ailleurs, alors que les modèles de base sont devenus un point de friction en Europe, les projets de règles semblent évoluer de l'autre côté de la Manche, mais aussi outre-Atlantique. L'administration Biden a signé en octobre un décret exigeant que tout laboratoire développant un grand modèle de base effectue des tests de sécurité et informe le gouvernement des résultats. Les discussions lors du récent sommet britannique sur la sécurité de l'IA se sont fortement concentrées sur les risques liés aux modèles de base les plus avancés. Les participants ont signé un document non contraignant reconnaissant la nécessité d'atténuer les risques liés à l'IA.

Source : la lettre des experts en IA (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la lettre adressée à la France, l'Italie et l'Allemagne ?
Cette lettre a-t-elle des chances de changer d'avis la France et ses deux voisins ?
Selon vous, pourquoi la France veut-elle que les fournisseurs de modèles de base se régulent eux-mêmes ?
Pensez-vous que la réglementation de l'UE sur l'IA pourrait nuire à l'innovation ? Souffre-t-elle d'insuffisances ?

Voir aussi

Les États-Unis et l'Union Européenne « devraient inciter le secteur de l'IA à adopter un code de conduite volontaire dans les mois à venir », d'après la responsable de la technologie de l'UE

OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

Plusieurs dirigeants du monde signent une déclaration reconnaissant la nécessité d'atténuer les risques liés à l'IA, mais le document n'est pas juridiquement contraignant et est vivement critiqué

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 14/02/2024 à 13:03
L'UE c'est vraimment le bal de la corruption. Quand je pense que la parlementaire grec qui c'était fait choper a recevoir du blé du Qatar a put tranquillement reprendre son poste comme si de rien n'était... C'est vraiment a vomir.
2  1 
Avatar de denisys
Membre chevronné https://www.developpez.com
Le 13/12/2023 à 16:13
On a mis 1,5 milliard sur notre stratégie IA.
C’est qui : On ??,
La / le contribuable payé au smic ??
Les grosses pointures du CAC 40 ??
L’état ??
Etat = 80 % => La / le contribuable payé au smic .
0  0