IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques,
Elles font pression pour retirer "les modèles de base" de la réglementation

Le , par Mathis Lucas

7PARTAGES

7  0 
Des entreprises technologiques européennes et américaines font pression pour empêcher l'adoption de la loi européenne sur l'IA (EU AI Act). Les groupes d'intérêt représentant ces entreprises utilisent leurs influences et leurs relations politiques pour tenter de modifier radicalement les règles de l'UE par le biais d'un lobbying intensif. Ils cherchent à retirer les "modèles de base" - les modèles les plus puissants et les plus modernes, comme GPT-4 d'OpenAI - de la législation de l'UE. Ces groupes exigent en fait que la législation soit imposée seulement aux développeurs d'applications, alors que ces derniers ont un contrôle limité sur les modèles de base fournis par les grandes entreprises.

De nombreux experts en IA, ainsi que le public, ont exprimé leurs inquiétudes quant au fait que la loi européenne sur l’IA soit menacée par des lobbyistes qui tentent de supprimer la réglementation proposée sur les puissants systèmes d’IA connus sous le nom de "modèles de base". Ils ont récemment signé une lettre ouverte appelant les États membres de l'UE à réglementer l’IA plutôt que laisser les entreprises le faire elles-mêmes. Le bloc se prépare à finaliser le texte de la législation sur l’IA le 6 décembre. La lettre a été adressée au président français Emmanuel Macron, à la Première ministre italienne Giorgia Meloni et au chancelier allemand Olaf Scholz.

Pour rappel, le cadre réglementaire publié par l'UE en avril 2021 prévoyait d'imposer différents niveaux de contrôle réglementaire sur les systèmes d'IA en fonction de leur utilisation prévue. Ainsi, les cas d'utilisation à plus haut risque nécessiteraient des mesures telles que l'évaluation des risques et des mesures d'atténuation dans le cadre de la proposition. La législation de l'UE prend en compte tous les types de systèmes d'IA, y compris ce que les entreprises d'IA appellent "les modèles de base" (ou modèles fondamentaux). Les modèles de base sont des modèles à usage général et servent de point de départ pour la création de diverses applications d'IA.

La loi européenne sur l'IA devait être le premier texte législatif d'envergure au monde en matière d'IA. Mais les trois grands États membres - la France, l'Allemagne et l'Italie - ont décidé récemment de supprimer la partie de la loi qui vise à réglementer les grands modèles de base. Les modèles de base sous-tendent les logiciels d'IA les plus puissants au monde, notamment ChatGPT d'OpenAI et Bard de Google. Ces logiciels d'IA sont souvent complexes et se comportent d’une manière qui peut surprendre même leurs propres développeurs. Mais la France, l'Italie et l'Allemagne veulent que les fournisseurs de modèles de base se régulent eux-mêmes.

Ces pays demandent désormais à la présidence espagnole "une autorégulation obligatoire au moyen de codes de conduite pour les modèles de base". Cela mettrait la responsabilité sur l’application de l’IA, et non sur la technologie elle-même, ce qui n’est pas ce qui se produit habituellement. En d'autres termes, cette approche ferait peser la responsabilité sur ceux qui ont le moins d’influence dans l’écosystème de l’IA (les développeurs d’applications) tout en exonérant ceux qui créent et contrôlent ces modèles puissants : les Big Tech américaines et leurs startups européennes préférées. Les auteurs de la lettre affirment qu'il s'agit d'une décision dangereuse.

Cela a suscité un tollé dans la communauté de l'IA, y compris au sein du grand public, les critiques affirmant que le lobbying des Big Tech tente de faire dérailler la loi européenne sur l'IA. Selon les auteurs de la lettre, les grandes entreprises technologiques américaines, les pays européens, les startups européennes bien connectées et les anciens ministres français utilisent leur influence et leurs avantages politiques pour modifier radicalement la législation. Dans la lettre, les auteurs affirment que la législation est menacée en raison du recul de ces gouvernements qui étaient autrefois favorables à la réglementation. Mais que s'est-il passé ?

Au début, la France était l'un des principaux défenseurs de la nécessité de réglementer les modèles de base. Aujourd'hui, l'ancien ministre de l'Économie numérique du président français Emmanuel Macron, Cédric O, qui est cofondateur et actionnaire de l'influente startup française Mistral, s'est prononcé contre les réglementations qui pourraient avoir un impact important sur l'activité de son entreprise. Donc, son ton a changé. Jusqu'en 2022, en tant que ministre, Cédric O affirmait que l'UE a besoin de plus de réglementation sur les géants technologiques. En 2021, il avait déclaré vouloir freiner l'oligopole des Big Tech américains pour protéger l'intérêt public.

Cependant, son discours a soudainement changé vers cet été, juste après qu'il est devenu cofondateur et actionnaire de Mistral, dont les critiques affirment qu'il a un poids politique étrange. Peu de temps après, il a commencé à déclarer dans des interviews : « la loi européenne sur l’IA pourrait tuer notre entreprise ». À peu près à la même époque, la France a également commencé à plaider en faveur de l’exclusion des modèles de base. Ainsi, la France propose maintenant que les sociétés d'IA travaillant sur des modèles de base se régulent elles-mêmes en publiant certaines informations sur leurs modèles et en observant un code de bonne conduite.

La lettre, datée du 26 novembre, affirme que cela retarde l'approbation de la loi sur l'IA et que si une entreprise s'autorégule, cela met les droits de l'homme en danger, car elle peut donner la priorité à ses profits plutôt qu'à la sécurité publique et aux préoccupations éthiques. L'on ignore si la lettre aura l'effet escompté et fera changer d'avis les gouvernements français, italien et allemand. Certaines sources rapportent que la vaste offensive de lobbying s’est poursuivie après l’été. En octobre, des responsables français, allemands et italiens ont rencontré des représentants des entreprises d'IA pour discuter de la coopération industrielle en matière d’IA.

De l’autre côté de l’Atlantique, les géants technologiques américains ont fait pression sur l’UE pour qu’elle affaiblisse et supprime de la loi sur l'IA les règles en rapport avec les modèles de base. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq meilleurs lobbyistes qui ont fait pression contre la législation de l'UE. Ces géants technologiques recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer ces technologies sans surveillance stricte. Cela se fait en coulisse, mais en public, ils chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.

Certaines sources rapportent que les dirigeants de Google, OpenAI et Microsoft se sont tous rendus en Europe pour rencontrer des décideurs politiques au plus haut niveau, notamment des membres de commissions et des chefs d'État. Sundar Pichai, PDG de Google, aurait même réussi à rencontrer trois commissaires en une seule journée. Malgré ce lobbying intense, la réglementation proposée par l'UE est populaire auprès du public. Selon le sondage européen de Control AI publié mercredi par YouGov, plus des deux tiers des citoyens européens soutiennent la réglementation des modèles de base. Mais l'influence du public sur la législation est moindre.

Par ailleurs, alors que les modèles de base sont devenus un point de friction en Europe, les projets de règles semblent évoluer de l'autre côté de la Manche, mais aussi outre-Atlantique. L'administration Biden a signé en octobre un décret exigeant que tout laboratoire développant un grand modèle de base effectue des tests de sécurité et informe le gouvernement des résultats. Les discussions lors du récent sommet britannique sur la sécurité de l'IA se sont fortement concentrées sur les risques liés aux modèles de base les plus avancés. Les participants ont signé un document non contraignant reconnaissant la nécessité d'atténuer les risques liés à l'IA.

Source : la lettre des experts en IA (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la lettre adressée à la France, l'Italie et l'Allemagne ?
Cette lettre a-t-elle des chances de changer d'avis la France et ses deux voisins ?
Selon vous, pourquoi la France veut-elle que les fournisseurs de modèles de base se régulent eux-mêmes ?
Pensez-vous que la réglementation de l'UE sur l'IA pourrait nuire à l'innovation ? Souffre-t-elle d'insuffisances ?

Voir aussi

Les États-Unis et l'Union Européenne « devraient inciter le secteur de l'IA à adopter un code de conduite volontaire dans les mois à venir », d'après la responsable de la technologie de l'UE

OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

Plusieurs dirigeants du monde signent une déclaration reconnaissant la nécessité d'atténuer les risques liés à l'IA, mais le document n'est pas juridiquement contraignant et est vivement critiqué

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 02/08/2024 à 7:19
Petit pastiche d’une citation de Georges Clemenceau:

L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
3  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0