IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA,
Et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

Le , par Bill Fassinou

0PARTAGES

5  0 
OpenAI fait l'objet de critiques acerbes après qu'un rapport accablant a révélé les dessous du lobbying intense mené par le laboratoire d'IA contre la législation de l'UE sur l'IA (EU AI Act). Les efforts de lobbying d'OpenAI auraient permis d'apporter d'importantes modifications à la loi, réduisant ainsi le fardeau réglementaire qui pèse sur l'entreprise. Autrement dit, la version du texte de la législation adoptée par le Parlement européen le 14 juin contient plusieurs amendements proposés par OpenAI. Les critiques affirmant que les efforts de lobbying intense d'OpenAI visent davantage à protéger ses propres intérêts financiers qu'à promouvoir l'intérêt général.

Le Parlement européen a adopté le 14 juin le projet de loi "Eu AI Act" qui impose des règles aux utilisations considérées comme les plus risquées de cette technologie. Il limite considérablement l'utilisation des logiciels de reconnaissance faciale et exige des fabricants de systèmes d'IA tels que les chatbots qu'ils divulguent davantage d'informations sur les données utilisées pour créer leurs programmes. Le vote n'est qu'une étape dans un processus plus long. La version définitive de la loi ne devrait pas être adoptée avant la fin de l'année. Il s'agit de la législation la plus complète à ce jour sur l'IA et elle est perçue comme un modèle potentiel pour le monde entier.

Cependant, alors que l'on craignait une législation trop stricte qui entrave le développement de l'IA, un récent rapport suggère qu'elle est probablement très favorable à OpenAI. Le rapport révèle que pendant les semaines qui ont précédé le vote au Parlement européen, OpenAI a fait pression pour que des éléments importants de la loi européenne sur l'IA soient édulcorés de manière à réduire le fardeau réglementaire qui pèse sur la société. Ces informations sont issues de documents sur l'engagement d'OpenAI avec des fonctionnaires de l'UE obtenus par TIME auprès de la Commission européenne par le biais de demandes de liberté d'information.


Dans plusieurs cas, OpenAI aurait proposé des amendements qui ont ensuite été intégrés à la version de la législation qui a été adoptée par le Parlement européen. Bien sûr, cette version doit encore faire l'objet d'une dernière série de négociations avant d'être finalisée dès le mois de janvier. Toutefois, les efforts de lobbying de l'entreprise ont été largement couronnés de succès. Les documents révèlent, par exemple, qu'en 2022, OpenAI a fait valoir à plusieurs reprises aux responsables de l'UE que la future réglementation sur l'IA ne devrait pas considérer ses systèmes d'IA à usage général - y compris GPT-3 et Dall-E 2 - comme étant à "haut risque".

Cette désignation qui soumettrait GPT-3 et Dall-E 2 à des exigences légales strictes, notamment en matière de transparence, de traçabilité et de surveillance humaine. Cet argument a mis OpenAI en phase avec Microsoft et Google qui ont tous deux précédemment fait pression sur l'UE pour assouplir le fardeau réglementaire pour les grands fournisseurs d'IA. Ils ont fait valoir que la charge de la conformité aux exigences les plus strictes de la loi devrait incomber aux entreprises qui ont explicitement décidé d'appliquer une IA à un cas d'utilisation à haut risque, et non aux entreprises (souvent plus grandes) qui construisent des systèmes d'IA à usage général.

« En soi, GPT-3 n'est pas un système à haut risque. Mais il possède des capacités qui peuvent potentiellement être employées dans des cas d'utilisation à haut risque », a écrit OpenAI dans un document intitulé "OpenAI White Paper on the European Union's Artificial Intelligence Act" qu'il a envoyé aux fonctionnaires de la Commission et du Conseil de l'UE en septembre 2022. Ainsi, la version finale de la loi approuvée par le Parlement européen mercredi ne contenait pas les formulations présentes dans les versions antérieures suggérant que les systèmes d'IA à usage général devraient être considérés comme étant intrinsèquement à haut risque.

Au lieu de cela, la législation adoptée demande aux fournisseurs de "modèles de base" - ou de puissants systèmes d'IA entraînés sur de grandes quantités de données - de se conformer à une petite poignée d'exigences, y compris la prévention de la génération de contenu illégal, la divulgation du fait qu'un système a été entraîné sur du matériel protégé par le droit d'auteur, et la réalisation d'évaluations des risques. Un porte-parole a déclaré qu'OpenAI a soutenu l'introduction tardive des "modèles de base" en tant que catégorie distincte dans la loi. OpenAI a également réussi à faire supprimer un autre amendement de la législation de l'UE sur l'IA.

Cet amendement à la loi sur l'IA aurait classé les systèmes d'IA comme "à haut risque" s'ils généraient des textes ou des images susceptibles de "donner faussement l'impression à une personne qu'il s'agit d'un texte généré par un être humain et authentique". « Ils ont obtenu ce qu'ils demandaient. Le document montre qu'OpenAI, comme de nombreuses entreprises Big Tech, a utilisé l'argument de l'utilité et du bénéfice public de l'IA pour masquer leur intérêt financier dans l'édulcoration de la réglementation », déclare Sarah Chander, conseillère politique principale chez European Digital Rights et experte de la loi, qui a examiné le livre blanc d'OpenAI.

Dans une section du document, OpenAI décrit longuement les politiques et les mécanismes de sécurité qu'il a élaborés pour empêcher que ses outils d'IA générative ne soient utilisés à mauvais escient, notamment en interdisant la génération d'images de personnes spécifiques, en informant les utilisateurs qu'ils interagissent avec une IA et en développant des outils permettant de détecter si une image est générée par l'IA. OpenAI a semblé suggérer que ces mesures de sécurité devraient suffire à empêcher ses systèmes d'être considérés comme "à haut risque". Mais les problèmes entourant ChatGPT montrent que ces mesures sont loin d'être suffisantes.

« Ce qu'ils disent, en gros, c'est : faites-nous confiance pour nous autoréguler. C'est très déroutant parce qu'ils s'adressent aux politiciens en leur disant : s'il vous plaît, réglementez-nous. Ils se vantent de toutes les mesures [de sécurité] qu'ils prennent, mais dès que vous leur dites : "eh bien, prenons-les au mot et fixons un plancher réglementaire", ils disent non », déclare Daniel Leufer, analyste politique principal spécialisé dans l'IA au bureau bruxellois d'Access Now. OpenAI a également plaidé en faveur d'amendements à la législation qui permettraient aux fournisseurs d'IA de mettre rapidement à jour leurs systèmes d'IA pour des raisons de sécurité.

Dans ces cas, OpenAI estime que les fournisseurs d'IA ne devraient pas avoir à subir une évaluation potentiellement longue de la part des autorités de l'UE. Il a plaidé en faveur de dérogations qui permettraient certaines utilisations de l'IA dans l'éducation et l'emploi - des secteurs qui, selon le premier projet de loi, devraient être considérés comme des cas d'utilisation à "haut risque" de l'IA. OpenAI estime que la capacité d'un système d'IA à rédiger des descriptions d'emploi ne devrait pas être considérée comme un cas d'utilisation "à haut risque" ni l'utilisation d'une IA dans un cadre éducatif pour rédiger des questions d'examen pour la curation humaine.

« Après qu'OpenAI a fait part de ces préoccupations en septembre dernier, une exemption a été ajoutée à la loi qui répond très largement aux demandes d'OpenAI de retirer du champ d'application les systèmes qui n'ont pas d'impact matériel sur la prise de décision [humaine] ou qui ne font que l'aider », selon Leufer d'Access Now. Après avoir relativement réussi à imposer ses volontés à l'UE, Sam Altman, PDG d'OpenAI, fait une tournée mondiale pour plaider en faveur d'une norme mondiale en matière d'IA. Au regard des révélations du rapport, il ne serait pas imprudent de suggérer qu'OpenAI compte également imposer sa politique au monde entier.

Les efforts de lobbying d'OpenAI ont fait froncer les sourcils et suscité des débats sur le rôle des grandes entreprises technologiques dans l'élaboration de la législation européenne sur l'IA. Alors qu'OpenAI maintient qu'il soutient l'objectif de l'UE de s'assurer que les outils d'IA sont construits, déployés et utilisés en toute sécurité, les critiques affirment que les efforts de lobbying de l'entreprise visent davantage à protéger ses intérêts financiers qu'à promouvoir l'intérêt public. Altman mène donc un jeu de dupe au sein de la communauté internationale de l'IA, un stratagème qui lui permettrait à terme d'asseoir sa domination sur le secteur de l'IA.

Par ailleurs, d'autres critiques accusent l'UE de s'être pliée une nouvelle fois aux désidératas des Américains, au mépris des intérêts de ses propres entreprises et de sa souveraineté numérique. Selon les critiques, il est fort probable que l'UE se retrouve à l'avenir à la traine dans la course à l'IA, comme cela est déjà le cas dans le secteur de la recherche où Google et Microsoft dominent le marché européen et le marché mondial ; et dans le secteur des plateformes sociales où Facebook et Twitter dictent leurs volontés aux Européens. « La loi européenne sur l'IA n'est rien d'autre qu'une copie de la stratégie interne d'OpenAI en matière d'IA », a écrit un critique.

Source : Livre blanc d'OpenAI (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des révélations et des allégations du rapport ?
Que pensez-vous de la législation européenne sur l'IA ? Est-elle suffisante ?
Selon vous, qu'est-ce qui justifie la complaisance de l'UE à l'égard d'OpenAI ?
Quels pourraient être les impacts de cette complaisance sur l'UE et ses entreprises d'IA ?

Voir aussi

Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

Emmanuel Macron annonce un investissement de 500 millions d'euros visant à faire de la France un pôle européen de l'IA, il veut des modèles d'IA français qui rivalisent avec ceux de Google et OpenAI

Le PDG d'OpenAI, Sam Altman, appelle les États-Unis à collaborer avec la Chine pour contrer les risques liés à l'IA, alors que Washington tente d'entraver les progrès de la Chine en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 02/08/2024 à 7:19
Petit pastiche d’une citation de Georges Clemenceau:

L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
3  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/06/2024 à 0:31
Citation Envoyé par kain_tn Voir le message
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
Il y a eu le métavers dernièrement, mais ça à foiré (comme tout le monde l'avais prévu ici).
2  0