De nombreux experts en IA, ainsi que le public, ont exprimé leurs inquiétudes quant au fait que la loi européenne sur l’IA soit menacée par des lobbyistes qui tentent de supprimer la réglementation proposée sur les puissants systèmes d’IA connus sous le nom de "modèles de base". Ils ont récemment signé une lettre ouverte appelant les États membres de l'UE à réglementer l’IA plutôt que laisser les entreprises le faire elles-mêmes. Le bloc se prépare à finaliser le texte de la législation sur l’IA le 6 décembre. La lettre a été adressée au président français Emmanuel Macron, à la Première ministre italienne Giorgia Meloni et au chancelier allemand Olaf Scholz.
Pour rappel, le cadre réglementaire publié par l'UE en avril 2021 prévoyait d'imposer différents niveaux de contrôle réglementaire sur les systèmes d'IA en fonction de leur utilisation prévue. Ainsi, les cas d'utilisation à plus haut risque nécessiteraient des mesures telles que l'évaluation des risques et des mesures d'atténuation dans le cadre de la proposition. La législation de l'UE prend en compte tous les types de systèmes d'IA, y compris ce que les entreprises d'IA appellent "les modèles de base" (ou modèles fondamentaux). Les modèles de base sont des modèles à usage général et servent de point de départ pour la création de diverses applications d'IA.🚨 Urgent Call to EU Leaders 🇪🇺: An open letter to @EmmanuelMacron, @GiorgiaMeloni, and @OlafScholz from #AI4People stressing critical need for formal regulation over self-regulation for #genAI in #EU #AIAct w/ risks to innovation, ethics, #humanrightshttps://t.co/28U4WhBwhs pic.twitter.com/Wv3u9M6rs3
— Virginia Dignum is mostly commenting on #LinkedIn (@vdignum) November 28, 2023
La loi européenne sur l'IA devait être le premier texte législatif d'envergure au monde en matière d'IA. Mais les trois grands États membres - la France, l'Allemagne et l'Italie - ont décidé récemment de supprimer la partie de la loi qui vise à réglementer les grands modèles de base. Les modèles de base sous-tendent les logiciels d'IA les plus puissants au monde, notamment ChatGPT d'OpenAI et Bard de Google. Ces logiciels d'IA sont souvent complexes et se comportent d’une manière qui peut surprendre même leurs propres développeurs. Mais la France, l'Italie et l'Allemagne veulent que les fournisseurs de modèles de base se régulent eux-mêmes.
Ces pays demandent désormais à la présidence espagnole "une autorégulation obligatoire au moyen de codes de conduite pour les modèles de base". Cela mettrait la responsabilité sur l’application de l’IA, et non sur la technologie elle-même, ce qui n’est pas ce qui se produit habituellement. En d'autres termes, cette approche ferait peser la responsabilité sur ceux qui ont le moins d’influence dans l’écosystème de l’IA (les développeurs d’applications) tout en exonérant ceux qui créent et contrôlent ces modèles puissants : les Big Tech américaines et leurs startups européennes préférées. Les auteurs de la lettre affirment qu'il s'agit d'une décision dangereuse.
Cela a suscité un tollé dans la communauté de l'IA, y compris au sein du grand public, les critiques affirmant que le lobbying des Big Tech tente de faire dérailler la loi européenne sur l'IA. Selon les auteurs de la lettre, les grandes entreprises technologiques américaines, les pays européens, les startups européennes bien connectées et les anciens ministres français utilisent leur influence et leurs avantages politiques pour modifier radicalement la législation. Dans la lettre, les auteurs affirment que la législation est menacée en raison du recul de ces gouvernements qui étaient autrefois favorables à la réglementation. Mais que s'est-il passé ?
Au début, la France était l'un des principaux défenseurs de la nécessité de réglementer les modèles de base. Aujourd'hui, l'ancien ministre de l'Économie numérique du président français Emmanuel Macron, Cédric O, qui est cofondateur et actionnaire de l'influente startup française Mistral, s'est prononcé contre les réglementations qui pourraient avoir un impact important sur l'activité de son entreprise. Donc, son ton a changé. Jusqu'en 2022, en tant que ministre, Cédric O affirmait que l'UE a besoin de plus de réglementation sur les géants technologiques. En 2021, il avait déclaré vouloir freiner l'oligopole des Big Tech américains pour protéger l'intérêt public.
Cependant, son discours a soudainement changé vers cet été, juste après qu'il est devenu cofondateur et actionnaire de Mistral, dont les critiques affirment qu'il a un poids politique étrange. Peu de temps après, il a commencé à déclarer dans des interviews : « la loi européenne sur l’IA pourrait tuer notre entreprise ». À peu près à la même époque, la France a également commencé à plaider en faveur de l’exclusion des modèles de base. Ainsi, la France propose maintenant que les sociétés d'IA travaillant sur des modèles de base se régulent elles-mêmes en publiant certaines informations sur leurs modèles et en observant un code de bonne conduite.
La lettre, datée du 26 novembre, affirme que cela retarde l'approbation de la loi sur l'IA et que si une entreprise s'autorégule, cela met les droits de l'homme en danger, car elle peut donner la priorité à ses profits plutôt qu'à la sécurité publique et aux préoccupations éthiques. L'on ignore si la lettre aura l'effet escompté et fera changer d'avis les gouvernements français, italien et allemand. Certaines sources rapportent que la vaste offensive de lobbying s’est poursuivie après l’été. En octobre, des responsables français, allemands et italiens ont rencontré des représentants des entreprises d'IA pour discuter de la coopération industrielle en matière d’IA.
De l’autre côté de l’Atlantique, les géants technologiques américains ont fait pression sur l’UE pour qu’elle affaiblisse et supprime de la loi sur l'IA les règles en rapport avec les modèles de base. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq meilleurs lobbyistes qui ont fait pression contre la législation de l'UE. Ces géants technologiques recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer ces technologies sans surveillance stricte. Cela se fait en coulisse, mais en public, ils chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.
Certaines sources rapportent que les dirigeants de Google, OpenAI et Microsoft se sont tous rendus en Europe pour rencontrer des décideurs politiques au plus haut niveau, notamment des membres de commissions et des chefs d'État. Sundar Pichai, PDG de Google, aurait même réussi à rencontrer trois commissaires en une seule journée. Malgré ce lobbying intense, la réglementation proposée par l'UE est populaire auprès du public. Selon le sondage européen de Control AI publié mercredi par YouGov, plus des deux tiers des citoyens européens soutiennent la réglementation des modèles de base. Mais l'influence du public sur la législation est moindre.
Par ailleurs, alors que les modèles de base sont devenus un point de friction en Europe, les projets de règles semblent évoluer de l'autre côté de la Manche, mais aussi outre-Atlantique. L'administration Biden a signé en octobre un décret exigeant que tout laboratoire développant un grand modèle de base effectue des tests de sécurité et informe le gouvernement des résultats. Les discussions lors du récent sommet britannique sur la sécurité de l'IA se sont fortement concentrées sur les risques liés aux modèles de base les plus avancés. Les participants ont signé un document non contraignant reconnaissant la nécessité d'atténuer les risques liés à l'IA.
Source : la lettre des experts en IA (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la lettre adressée à la France, l'Italie et l'Allemagne ?
Cette lettre a-t-elle des chances de changer d'avis la France et ses deux voisins ?
Selon vous, pourquoi la France veut-elle que les fournisseurs de modèles de base se régulent eux-mêmes ?
Pensez-vous que la réglementation de l'UE sur l'IA pourrait nuire à l'innovation ? Souffre-t-elle d'insuffisances ?
Voir aussi
Les États-Unis et l'Union Européenne « devraient inciter le secteur de l'IA à adopter un code de conduite volontaire dans les mois à venir », d'après la responsable de la technologie de l'UE
OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général
Plusieurs dirigeants du monde signent une déclaration reconnaissant la nécessité d'atténuer les risques liés à l'IA, mais le document n'est pas juridiquement contraignant et est vivement critiqué