IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI demande à la Maison Blanche de l'aider à se soustraire aux règles mises en place par les États pour superviser l'IA,
Arguant que ces règles ralentissent l'Amérique dans la course à l'IA face à la Chine

Le , par Mathis Lucas

5PARTAGES

6  0 
OpenAI demande à la Maison Blanche de l'aider à se soustraire aux règles mises en place par les États pour superviser l'IA
arguant que ces règles ralentissent l'Amérique dans la course à l'IA face à la Chine

OpenAI demande à la Maison Blanche d'intervenir pour alléger les règles mises en place par les différents États afin de réglementer le développement de l'IA. L'entreprise allègue que les centaines de projets de loi en suspens aux États-Unis risquent de compromettre les progrès technologiques du pays à un moment où il est confronté à une concurrence féroce de la part de la Chine. OpenAI milite pour une approche non interventionniste et une innovation à tout prix dans le domaine de l'IA. Selon OpenAI il n'y a que de cette façon que les États-Unis pourront gagner la course à l'IA face à la Chine et que l'IA démocratique triomphera sur l'IA autoritaire.

OpenAI appelle l'administration Trump à alléger les réglementations sur l'IA

OpenAI a récemment soumis un certain nombre de recommandations à la Maison Blanche. La startup répondait à l'appel du gouvernement fédéral à contribuer à l'élaboration d'un plan d'action sur l'IA de l'administration Trump. Cet exercice pourrait également aboutir à l'élaboration d'une réglementation fédérale sur l'IA. OpenAI a donc soumis un document de 15 pages, dans lequel il formule des recommandations pour la plupart hautement controversées.

Entre autres, le document appelle à un assouplissement des réglementations étatiques en matière d'IA. OpenAI affirme que la Maison Blanche devrait envisager d'accorder aux entreprises d'IA, grandes et petites, un certain allégement des règles des États en échange d'un accès volontaire aux modèles.


OpenAI a déclaré que les projets de loi que plusieurs États américains envisagent actuellement de mettre en œuvre ralentiront le développement et l'innovation dans le domaine de l'IA. Un outil de suivi du site MultiState a recensé 832 lois introduites au cours de la seule année 2025. OpenAI a déclaré que certaines de ces lois sont calquées sur des lois strictes de l'Union européenne et a invité le gouvernement fédéral américain à ne pas reproduire ces lois.

« Dans l'ensemble, ce paquet de lois pourrait imposer des exigences de conformité lourdes susceptibles d'entraver notre compétitivité économique et de nuire à notre sécurité nationale, car elles seront probablement plus difficiles à appliquer contre les entreprises chinoises », a déclaré l'OpenAI.

En janvier 2025, le président Donald Trump a annulé le décret sur l'IA signé par son prédécesseur Joe Biden en octobre 2023, intitulé « Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence ». Le décret de Joe Biden visait à investir dans l'IA et à superviser son développement.

À ce jour, l'absence de législation fédérale régissant le secteur de l'IA est notable. L'administration Trump a généralement fait part de son intention d'adopter une approche non interventionniste en matière de réglementation de l'IA. Mais de nombreux États examinent activement de nouvelles mesures sur tous les sujets, des deepfakes aux préjugés dans les systèmes d'IA. Cependant, OpenAI affirme que les mesures étatiques pourraient nuire à l'innovation.

OpenAI critiqué sur ses propositions en matière de réglementation de l'IA

Dans ses recommandations, OpenAI a déclaré que le développement de l'IA est une question de sécurité nationale. Afin d'éviter les risques pour la sécurité nationale, OpenAI a exhorté Donald Trump à promulguer une loi fédérale qui prenne le pas sur les lois des États qui tentent de réglementer les menaces de l'IA pour des choses comme la vie privée des consommateurs ou l'intégrité des élections, comme les deepfakes ou la reconnaissance faciale.

Chris Lehane, vice-président des affaires mondiales d'OpenAI, a déclaré dans une récente interview que l'Institut américain de sécurité de l'IA (US AI Safety Institute), un groupe gouvernemental clé axé sur l'IA, pourrait servir de principal point de contact entre le gouvernement fédéral et le secteur privé. Chris Lehane craint que les réglementations des États ne soient pas aussi bonnes que les réglementations qui seront établies par le gouvernement fédéral.

« Si les entreprises collaborent volontairement avec le groupe pour examiner les modèles d'IA, le gouvernement pourrait leur fournir des protections en matière de responsabilité, y compris la préemption des réglementations étatiques axées sur la sécurité des modèles d'avant-garde », indique OpenAI.

Par ailleurs, OpenAI veut des protections contre les lois internationales qui, selon la startup, risquent de ralentir le développement de l'IA aux États-Unis. « Les États-Unis devraient orienter les discussions politiques internationales sur le droit d'auteur et l'IA et travailler pour empêcher les pays moins innovants d'imposer leurs régimes juridiques aux entreprises américaines d'IA et de ralentir notre rythme de progrès », a déclaré OpenAI dans son dossier.

OpenAI a suggéré que cet effort devrait inclure « le gouvernement américain évaluant activement le niveau global des données disponibles pour les entreprises d'IA américaines et déterminant si d'autres pays restreignent l'accès des entreprises américaines aux données et à d'autres intrants critiques ».

Selon OpenAI, l'administration Trump doit adopter de toute urgence ces propositions et d'autres concernant l'adoption rapide de l'IA au sein du gouvernement et la construction méthodique d'une infrastructure d'IA, car « les États-Unis sont talonnés par les récents développements de la Chine ».

OpenAI s'est lancé dans une course aux profits au détriment de la sécurité

En 2023, parallèlement au lancement de son modèle d'IA GPT-4o, OpenAI a dissous son équipe Superalignment. Créée en juillet 2023, l'équipe Superalignment était dirigée par Ilya Sutskever, cofondateur d'OpenAI, et Jan Leike, chercheur en sécurité de l'IA. L'équipe était chargée d'identifier et d'atténuer les risques liés à une IA forte, comme la possibilité qu'elle devienne « rebelle », et de s'assurer qu'elle est alignée sur les valeurs et les objectifs humains.

L'équipe n'a pas survécu aux changements profonds intervenus chez OpenAI depuis la fin de l'année 2023 et à sa quête effrénée aux profits. Ces changements sont intervenus à la suite du licenciement temporaire du PDG Sam Altman par le conseil d'administration de l'époque. Ce dernier avait accusé Sam Altman de donner la priorité au lancement de nouveaux produits plutôt qu'à la sécurité et de n'avoir pas été honnête avec la direction et le personnel.

Ilya Sutskever était l'un des principaux artisans de la brève éviction de Sam Altman en novembre 2023. Depuis le retour de Sam Altman, des changements sont intervenus et OpenAI vise à se restructurer en une entreprise à but lucratif. Ces changements ont créé des tensions internes et provoqué les départs de nombreux chercheurs. Un rapport publié en août 2024 indique que près de la moitié du personnel chargé de la sécurité de l'IA a quitté OpenAI.

L'équipe Superalignment aurait été dissoute quelques jours après que ses dirigeants, Ilya Sutskever et Jan Leike, ont annoncé leur démission. OpenAI a ensuite annoncé aux membres restants de l'équipe (environ 25 personnes) qu'elle était dissoute et qu'ils étaient réaffectés à d'autres fonctions au sein de l'entreprise.

Jan Leike a déclaré que son départ est lié au fait qu'OpenAI se préoccupe de moins en moins de la sécurité de ses systèmes d'IA. Il a déclaré : « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants ». Voici une liste non exhaustive des départs :

  • Ilya Sutskever : il était à la fois cofondateur et scientifique en chef d'OpenAI, ainsi que le chef de l'équipe Superalignment. Compte tenu de son rôle dans la tentative de coup d'État d'Altman, il est difficile de savoir s'il a été gentiment mis à la porte ou s'il est parti de son propre chef ;
  • Jan Leike : il était chargé (avec Sutskever) de veiller à ce que les systèmes d'IA d'OpenAI soient alignés sur les intérêts humains et avait été désigné en 2023 par le magazine Time comme l'une des 100 personnes les plus influentes dans le domaine de l'IA ;
  • Evan Morikawa : il était ingénieur en chef chez OpenAI. Il a quitté l'entreprise en juillet 2024 après trois ans et demi d'activité. Il prévoit de lancer une nouvelle initiative avec des vétérans de Boston Dynamics et DeepMind ;
  • Daniel Kokotajlo : ancien membre de l'équipe de sécurité d'OpenAI, il a quitté l'entreprise en février 2024. Il a depuis critiqué publiquement OpenAI, déclarant qu'il avait quitté l'entreprise, car il ne croyait plus qu'elle se comporterait de manière responsable à l'ère de l'AGI ;
  • Leopold Aschenbrenner : il était aussi membre de l'équipe Superalignment, travaillant avec Ilya Sutskever et Jan Leike. Son départ n'était cependant pas une démission. Il a été licencié pour avoir prétendument divulgué des informations à des journalistes ;
  • Andrey Karpathy : membre fondateur d'OpenAI, Karpathy avait déjà quitté l'organisation une fois, mais était revenu en février 2023. Cela n'a duré qu'un an, lorsqu'il est reparti, bien que dans un tweet, il ait déclaré que ce n'était pas le résultat d'un événement, d'un problème ou d'un drame particulier ;
  • Logan Kilpatrick : il a quitté le navire pour un poste chez Google. Il a confié que les changements intervenus au sein de l'entreprise étaient en partie à l'origine de son départ, soulignant que la croissance explosive avait modifié la façon de travailler d'OpenAI ;
  • Pavel Izmailov : le poste de Pavel Izmailov aurait été supprimé en même temps que celui de Leopold Aschenbrenner. Tous deux étaient de solides alliés de Ilya Sutskever. Ni son nom ni celui de Leopold Aschenbrenner ne figuraient sur la liste des employés qui ont manifesté leur soutien à Sam Altman lors du chaos de novembre 2023 ;
  • Diane Yoon : elle a quitté OpenAI au début du mois de mai 2024, démissionnant de son poste de vice-présidente du personnel. Aucune raison n'a été donnée pour ce départ, mais Diane Yoon était l'un des cadres les plus anciens de l'entreprise ;
  • Chris Clark : il a également quitté OpenAI début juillet 2024. Il était responsable des initiatives stratégiques et à but non lucratif.
  • William Saunders : il a quitté OpenAI en février 2024, abandonnant son poste de manager au sein de l'équipe Superalignment, parce que la vision est similaire à celle derrière le Titanic : s'empresser de lancer le plus gros navire qui va finir par couler faute de sécurité.


Ce fut une chute rapide pour une équipe dont OpenAI avait assuré moins d'un an auparavant que son travail était vital pour la société et essentiel pour l'avenir de la civilisation. Ilya Sutskever n'a pas critiqué publiquement l'approche d'OpenAI en matière de sécurité de l'IA, mais a constamment souligné les défis liés à la sécurité et l'alignement de l'IA. Il a lancé sa propre entreprise en vue de créer une IA centrée sur les valeurs de l'humanité.

Plusieurs anciens employés d'OpenAI ont critiqué l'approche d'OpenAI en matière de sécurité de l'IA. Daniel Kokotajlo, ancien chercheur en gouvernance d'OpenAI, a déclaré que près de la moitié du personnel d'OpenAI qui se concentrait autrefois sur les risques à long terme d'une AGI avait quitté l'entreprise.

Un lanceur d'alerte d'OpenAI retrouvé mort dans son appartement à San Francisco

En novembre 2024, Suchir Balaji, 26 ans, a été retrouvé mort à son domicile de San Francisco, trois mois seulement après avoir accusé OpenAI de violer les lois sur les droits d'auteur dans le cadre du développement de ChatGPT. Suchir Balaji était également un ancien employé d'OpenAI et avait rejoint l'entreprise avec la conviction qu'elle avait le potentiel de bénéficier à la société. Mais selon ses propres déclarations, il avait été déçu par les pratiques d'OpenAI.

La police a déclaré n'avoir trouvé aucune preuve d'acte criminel sur les lieux et a conclu à un suicide, mais les parents de Suchir...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !