IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA,
Et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

Le , par Bill Fassinou

0PARTAGES

5  0 
OpenAI fait l'objet de critiques acerbes après qu'un rapport accablant a révélé les dessous du lobbying intense mené par le laboratoire d'IA contre la législation de l'UE sur l'IA (EU AI Act). Les efforts de lobbying d'OpenAI auraient permis d'apporter d'importantes modifications à la loi, réduisant ainsi le fardeau réglementaire qui pèse sur l'entreprise. Autrement dit, la version du texte de la législation adoptée par le Parlement européen le 14 juin contient plusieurs amendements proposés par OpenAI. Les critiques affirmant que les efforts de lobbying intense d'OpenAI visent davantage à protéger ses propres intérêts financiers qu'à promouvoir l'intérêt général.

Le Parlement européen a adopté le 14 juin le projet de loi "Eu AI Act" qui impose des règles aux utilisations considérées comme les plus risquées de cette technologie. Il limite considérablement l'utilisation des logiciels de reconnaissance faciale et exige des fabricants de systèmes d'IA tels que les chatbots qu'ils divulguent davantage d'informations sur les données utilisées pour créer leurs programmes. Le vote n'est qu'une étape dans un processus plus long. La version définitive de la loi ne devrait pas être adoptée avant la fin de l'année. Il s'agit de la législation la plus complète à ce jour sur l'IA et elle est perçue comme un modèle potentiel pour le monde entier.

Cependant, alors que l'on craignait une législation trop stricte qui entrave le développement de l'IA, un récent rapport suggère qu'elle est probablement très favorable à OpenAI. Le rapport révèle que pendant les semaines qui ont précédé le vote au Parlement européen, OpenAI a fait pression pour que des éléments importants de la loi européenne sur l'IA soient édulcorés de manière à réduire le fardeau réglementaire qui pèse sur la société. Ces informations sont issues de documents sur l'engagement d'OpenAI avec des fonctionnaires de l'UE obtenus par TIME auprès de la Commission européenne par le biais de demandes de liberté d'information.


Dans plusieurs cas, OpenAI aurait proposé des amendements qui ont ensuite été intégrés à la version de la législation qui a été adoptée par le Parlement européen. Bien sûr, cette version doit encore faire l'objet d'une dernière série de négociations avant d'être finalisée dès le mois de janvier. Toutefois, les efforts de lobbying de l'entreprise ont été largement couronnés de succès. Les documents révèlent, par exemple, qu'en 2022, OpenAI a fait valoir à plusieurs reprises aux responsables de l'UE que la future réglementation sur l'IA ne devrait pas considérer ses systèmes d'IA à usage général - y compris GPT-3 et Dall-E 2 - comme étant à "haut risque".

Cette désignation qui soumettrait GPT-3 et Dall-E 2 à des exigences légales strictes, notamment en matière de transparence, de traçabilité et de surveillance humaine. Cet argument a mis OpenAI en phase avec Microsoft et Google qui ont tous deux précédemment fait pression sur l'UE pour assouplir le fardeau réglementaire pour les grands fournisseurs d'IA. Ils ont fait valoir que la charge de la conformité aux exigences les plus strictes de la loi devrait incomber aux entreprises qui ont explicitement décidé d'appliquer une IA à un cas d'utilisation à haut risque, et non aux entreprises (souvent plus grandes) qui construisent des systèmes d'IA à usage général.

« En soi, GPT-3 n'est pas un système à haut risque. Mais il possède des capacités qui peuvent potentiellement être employées dans des cas d'utilisation à haut risque », a écrit OpenAI dans un document intitulé "OpenAI White Paper on the European Union's Artificial Intelligence Act" qu'il a envoyé aux fonctionnaires de la Commission et du Conseil de l'UE en septembre 2022. Ainsi, la version finale de la loi approuvée par le Parlement européen mercredi ne contenait pas les formulations présentes dans les versions antérieures suggérant que les systèmes d'IA à usage général devraient être considérés comme étant intrinsèquement à haut risque.

Au lieu de cela, la législation adoptée demande aux fournisseurs de "modèles de base" - ou de puissants systèmes d'IA entraînés sur de grandes quantités de données - de se conformer à une petite poignée d'exigences, y compris la prévention de la génération de contenu illégal, la divulgation du fait qu'un système a été entraîné sur du matériel protégé par le droit d'auteur, et la réalisation d'évaluations des risques. Un porte-parole a déclaré qu'OpenAI a soutenu l'introduction tardive des "modèles de base" en tant que catégorie distincte dans la loi. OpenAI a également réussi à faire supprimer un autre amendement de la législation de l'UE sur l'IA.

Cet amendement à la loi sur l'IA aurait classé les systèmes d'IA comme "à haut risque" s'ils généraient des textes ou des images susceptibles de "donner faussement l'impression à une personne qu'il s'agit d'un texte généré par un être humain et authentique". « Ils ont obtenu ce qu'ils demandaient. Le document montre qu'OpenAI, comme de nombreuses entreprises Big Tech, a utilisé l'argument de l'utilité et du bénéfice public de l'IA pour masquer leur intérêt financier dans l'édulcoration de la réglementation », déclare Sarah Chander, conseillère politique principale chez European Digital Rights et experte de la loi, qui a examiné le livre blanc d'OpenAI.

Dans une section du document, OpenAI décrit longuement les politiques et les mécanismes de sécurité qu'il a élaborés pour empêcher que ses outils d'IA générative ne soient utilisés à mauvais escient, notamment en interdisant la génération d'images de personnes spécifiques, en informant les utilisateurs qu'ils interagissent avec une IA et en développant des outils permettant de détecter si une image est générée par l'IA. OpenAI a semblé suggérer que ces mesures de sécurité devraient suffire à empêcher ses systèmes d'être considérés comme "à haut risque". Mais les problèmes entourant ChatGPT montrent que ces mesures sont loin d'être suffisantes.

« Ce qu'ils disent, en gros, c'est : faites-nous confiance pour nous autoréguler. C'est très déroutant parce qu'ils s'adressent aux politiciens en leur disant : s'il vous plaît, réglementez-nous. Ils se vantent de toutes les mesures [de sécurité] qu'ils prennent, mais dès que vous leur dites : "eh bien, prenons-les au mot et fixons un plancher réglementaire", ils disent non », déclare Daniel Leufer, analyste politique principal spécialisé dans l'IA au bureau bruxellois d'Access Now. OpenAI a également plaidé en faveur d'amendements à la législation qui permettraient aux fournisseurs d'IA de mettre rapidement à jour leurs systèmes d'IA pour des raisons de sécurité.

Dans ces cas, OpenAI estime que les fournisseurs d'IA ne devraient pas avoir à subir une évaluation potentiellement longue de la part des autorités de l'UE. Il a plaidé en faveur de dérogations qui permettraient certaines utilisations de l'IA dans l'éducation et l'emploi - des secteurs qui, selon le premier projet de loi, devraient être considérés comme des cas d'utilisation à "haut risque" de l'IA. OpenAI estime que la capacité d'un système d'IA à rédiger des descriptions d'emploi ne devrait pas être considérée comme un cas d'utilisation "à haut risque" ni l'utilisation d'une IA dans un cadre éducatif pour rédiger des questions d'examen pour la curation humaine.

« Après qu'OpenAI a fait part de ces préoccupations en septembre dernier, une exemption a été ajoutée à la loi qui répond très largement aux demandes d'OpenAI de retirer du champ d'application les systèmes qui n'ont pas d'impact matériel sur la prise de décision [humaine] ou qui ne font que l'aider », selon Leufer d'Access Now. Après avoir relativement réussi à imposer ses volontés à l'UE, Sam Altman, PDG d'OpenAI, fait une tournée mondiale pour plaider en faveur d'une norme mondiale en matière d'IA. Au regard des révélations du rapport, il ne serait pas imprudent de suggérer qu'OpenAI compte également imposer sa politique au monde entier.

Les efforts de lobbying d'OpenAI ont fait froncer les sourcils et suscité des débats sur le rôle des grandes entreprises technologiques dans l'élaboration de la législation européenne sur l'IA. Alors qu'OpenAI maintient qu'il soutient l'objectif de l'UE de s'assurer que les outils d'IA sont construits, déployés et utilisés en toute sécurité, les critiques affirment que les efforts de lobbying de l'entreprise visent davantage à protéger ses intérêts financiers qu'à promouvoir l'intérêt public. Altman mène donc un jeu de dupe au sein de la communauté internationale de l'IA, un stratagème qui lui permettrait à terme d'asseoir sa domination sur le secteur de l'IA.

Par ailleurs, d'autres critiques accusent l'UE de s'être pliée une nouvelle fois aux désidératas des Américains, au mépris des intérêts de ses propres entreprises et de sa souveraineté numérique. Selon les critiques, il est fort probable que l'UE se retrouve à l'avenir à la traine dans la course à l'IA, comme cela est déjà le cas dans le secteur de la recherche où Google et Microsoft dominent le marché européen et le marché mondial ; et dans le secteur des plateformes sociales où Facebook et Twitter dictent leurs volontés aux Européens. « La loi européenne sur l'IA n'est rien d'autre qu'une copie de la stratégie interne d'OpenAI en matière d'IA », a écrit un critique.

Source : Livre blanc d'OpenAI (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des révélations et des allégations du rapport ?
Que pensez-vous de la législation européenne sur l'IA ? Est-elle suffisante ?
Selon vous, qu'est-ce qui justifie la complaisance de l'UE à l'égard d'OpenAI ?
Quels pourraient être les impacts de cette complaisance sur l'UE et ses entreprises d'IA ?

Voir aussi

Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

Emmanuel Macron annonce un investissement de 500 millions d'euros visant à faire de la France un pôle européen de l'IA, il veut des modèles d'IA français qui rivalisent avec ceux de Google et OpenAI

Le PDG d'OpenAI, Sam Altman, appelle les États-Unis à collaborer avec la Chine pour contrer les risques liés à l'IA, alors que Washington tente d'entraver les progrès de la Chine en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 27/10/2023 à 9:41
il prévoit la création d'un organisme international de l'IA
Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 05/07/2023 à 23:06
comme d'hab l'europe ce tire une balle dans le pied dans tous les domaines.

a qui profite le crime ? aux etats unis !

Donc les dirigeant de l'europe doivent etre a leur botte...
0  0 
Avatar de rsuinux
Membre habitué https://www.developpez.com
Le 31/10/2023 à 8:09
@jules34 :parce que vous êtes contre l'OMS ????
0  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 15/11/2023 à 15:18
C'est d'une telle évidence ...
0  0