IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI cherche à débloquer des investissements en supprimant la clause «IAG» (IA générale) avec Microsoft
Une disposition qui visait à protéger sa technologie d'une utilisation abusive à des fins commerciales

Le , par Stéphane le calme

54PARTAGES

6  0 
OpenAI cherche à débloquer des investissements en supprimant la clause « IAG » (IA générale) avec Microsoft,
une disposition qui visait à protéger sa technologie d'une utilisation abusive à des fins commerciales

OpenAI est en pourparlers pour supprimer une disposition qui exclut Microsoft de ses modèles les plus avancés lorsque la start-up parvient à « l'intelligence artificielle générale », dans le but de débloquer des milliards de dollars d'investissements futurs. Selon les termes actuels, lorsqu'OpenAI parviendra à créer l'IAG (définie comme un « système hautement autonome qui surpasse les humains dans la plupart des tâches économiquement utiles »), l'accès de Microsoft à cette technologie serait annulé. Le conseil d'administration de l'OpenAI déterminerait le moment où l'IAG serait atteint. Selon des analystes, le fait que Sam Altman revoit à la baisse les attentes en matière d'intelligence artificielle générale était déjà le signal indiquant qu'en interne cette posture se préparait à être adoptée.

Un partenariat stratégique, mais contraignant

Depuis 2019, OpenAI bénéficie d’un soutien financier et technologique considérable de Microsoft. Ce partenariat a permis à OpenAI de développer ses modèles avancés, notamment GPT-4 et DALL·E, tout en s’appuyant sur l’infrastructure cloud Azure de Microsoft. Cependant, la clause dite "IAG" stipulait que les développements visant l'intelligence artificielle générale devaient prioritairement être alignés sur des objectifs de bénéfice pour l'humanité. Cela limitait, en théorie, l’autonomie d’OpenAI pour diversifier ses investisseurs ou orienter certains de ses projets.

La décision de supprimer cette clause pourrait être perçue comme une manière de lever ces barrières, ouvrant ainsi la voie à de nouveaux financements et à une indépendance accrue. Mais à quel prix ?

La quête de l’investissement : un double tranchant

En abandonnant cette clause, OpenAI cherche à séduire des investisseurs au-delà de Microsoft et à garantir une plus grande flexibilité stratégique. Toutefois, cette décision pourrait renforcer la perception que la mission originelle d’OpenAI (celle de veiller à un développement éthique et contrôlé de l’IA) est reléguée au second plan. Le risque ici est que la recherche de profits ou de domination technologique prime sur l'engagement éthique initial.

Citation Envoyé par OpenAI
Notre mission est de veiller à ce que l'intelligence artificielle générale - des systèmes d'intelligence artificielle généralement plus intelligents que les humains - profite à l'ensemble de l'humanité.

Si l'IAG est créée avec succès, cette technologie pourrait nous aider à élever l'humanité en augmentant l'abondance, en donnant un coup de fouet à l'économie mondiale et en contribuant à la découverte de nouvelles connaissances scientifiques qui repoussent les limites du possible.

L'IAG a le potentiel de donner à chacun d'incroyables nouvelles capacités ; nous pouvons imaginer un monde où chacun d'entre nous aurait accès à de l'aide pour presque toutes les tâches cognitives, ce qui multiplierait considérablement la force de l'ingéniosité et de la créativité humaines.

D'un autre côté, l'AGI s'accompagnerait également d'un risque sérieux de mauvaise utilisation, d'accidents graves et de perturbations sociétales. Étant donné que l'AGI présente des avantages considérables, nous ne pensons pas qu'il soit possible ou souhaitable pour la société d'arrêter définitivement son développement ; au contraire, la société et les développeurs de l'AGI doivent trouver le moyen de bien faire les choses.
Certains critiques s’inquiètent également du rôle croissant de Microsoft dans cette équation. Bien que la suppression de la clause pourrait signaler une certaine prise de distance, elle laisse planer le doute quant à la capacité d’OpenAI à se libérer totalement de l’influence de son partenaire historique.


La clause a été incluse pour protéger la technologie potentiellement puissante d'une utilisation abusive à des fins commerciales

La start-up envisage de supprimer la stipulation de sa structure d'entreprise, ce qui permettrait au groupe Big Tech de continuer à investir dans la technologie OpenAI et d'y accéder après la réalisation de l'IAG, selon plusieurs personnes au fait des discussions. La décision finale n'a pas encore été prise et le conseil d'administration étudie actuellement les différentes options possibles, ont-elles ajouté.

La clause a été incluse pour protéger la technologie potentiellement puissante d'une utilisation abusive à des fins commerciales, en donnant la propriété de la technologie à son conseil d'administration à but non lucratif. Selon le site web d'OpenAI : « L'IAG est explicitement exclue de tous les accords de licence commerciale et de propriété intellectuelle ».

Mais cette disposition risque de limiter la valeur de son partenariat pour Microsoft, qui a injecté plus de 13 milliards de dollars dans OpenAI, et pourrait dissuader le groupe Big Tech d'investir davantage.

Des fonds supplémentaires seront nécessaires compte tenu des coûts exorbitants qu'implique le développement de modèles d'IA avancés dans une course contre des rivaux au portefeuille bien garni tels que Google et Amazon.

Le groupe de San Francisco dirigé par Sam Altman, qui a récemment été évalué à 150 milliards de dollars, est en train de se restructurer pour devenir une société d'utilité publique. Cette décision marque une rupture avec ses origines de laboratoire de recherche à but non lucratif.

Des discussions sur les nouvelles conditions avec les investisseurs

Dans le cadre de ces changements, OpenAI discute de nouvelles conditions avec les investisseurs, y compris avec son principal actionnaire, Microsoft, selon plusieurs personnes au courant de ces conversations. « Lorsque nous avons commencé, nous n'avions aucune idée que nous allions devenir une entreprise de produits ou que le capital dont nous avions besoin serait si important », a déclaré Altman lors d'une conférence organisée par le New York Times mercredi. « Si nous avions su cela, nous aurions choisi une structure différente ».

« Nous avons également dit que notre intention était de considérer l'IAG comme une borne kilométrique sur le chemin. Nous nous sommes laissé une certaine marge de manœuvre parce que nous ne savons pas ce qui va se passer », a ajouté Altman, qui pourrait recevoir pour la première fois une participation directe au capital d'OpenAI dans le cadre de la restructuration.

De plus en plus, les membres de l'OpenAI s'éloignent de la définition de l'IAG comme un point unique, soulignant plutôt qu'il s'agit d'un processus continu et qu'il sera défini par la société dans son ensemble.

OpenAI a commencé à lever des capitaux extérieurs en 2019, recevant cette année-là un investissement de 1 milliard de dollars de la part de Microsoft. À l'époque, la société a déclaré qu'elle avait l'intention « d'accorder une licence à Microsoft pour certaines de nos technologies pré-IAG » afin de couvrir les coûts de développement de l'IA de pointe.

OpenAI a conseillé aux bailleurs de fonds d'envisager leurs investissements « dans l'esprit d'un don, en sachant qu'il peut être difficile de savoir quel rôle jouera l'argent dans un monde post-IAG ». Mais son évolution constante vers une entité à but lucratif a suscité de vives critiques de la part de ses rivaux, notamment d'Elon Musk, l'un des premiers bailleurs de fonds et cofondateur d'OpenAI. Le chef milliardaire de Tesla, qui a depuis fondé une start-up rivale, xAI, a récemment intenté une action en justice contre OpenAI et Microsoft, accusant Altman de « tromperie aux proportions shakespeariennes » et cherchant à annuler son partenariat commercial avec Microsoft.

Dans le cadre de la restructuration proposée, le fabricant de ChatGPT conservera également une entité indépendante à but non lucratif, qui détiendra une participation dans la nouvelle société d'intérêt public et potentiellement un trust, selon des personnes au fait des discussions. L'entité à but non lucratif aurait accès à la recherche et à la technologie, mais se concentrerait uniquement sur la poursuite de la mission d'OpenAI, qui est de bénéficier à l'humanité.

OpenAI a refusé de commenter les détails des négociations autour de la restructuration, mais Bret Taylor, président du conseil d'administration d'OpenAI, a déclaré que le conseil d'administration de l'organisation à but non lucratif « s'attache à remplir son obligation fiduciaire en veillant à ce que l'entreprise soit bien positionnée pour continuer à faire avancer sa mission, qui consiste à faire en sorte que l'IAG profite à l'ensemble de l'humanité ».

Il a ajouté : « Bien que notre travail se poursuive et que nous continuions à consulter des conseillers financiers et juridiques indépendants, toute restructuration potentielle garantirait que l'association à but non lucratif continue d'exister et de prospérer, et qu'elle reçoive la pleine valeur de sa participation actuelle dans l'entreprise à but lucratif OpenAI, avec une capacité accrue de poursuivre sa mission. »


Un tournant dans la gouvernance d’OpenAI

Cette évolution reflète également un glissement dans la gouvernance de l’organisation. OpenAI, à l’origine une organisation à but non lucratif, s’est transformée en 2019 en une entité "for-profit", mais avec des limites de rendement ("capped profit". Cette transition avait déjà suscité des débats sur la compatibilité entre rentabilité et impact social.

Aujourd’hui, le choix de modifier sa relation contractuelle avec Microsoft marque une étape supplémentaire vers une logique plus commerciale. Cela pose une question fondamentale : OpenAI peut-elle concilier son rôle de pionnier technologique et sa responsabilité éthique dans un cadre fortement dicté par des considérations de marché ?

Sources : vidéo dans le texte, OpenAI

Et vous ?

Quelle analyse faites-vous de l'étude de la suppression de la clause IAG ? Compromettrait-elle, selon vous, l'engagement d'OpenAI envers une IA bénéfique pour l'humanité ? Pourquoi ?

La dépendance envers un partenaire majeur comme Microsoft est-elle une force ou une faiblesse pour OpenAI dans sa quête d’autonomie ?

Selon vous, qui devrait être responsable de la gouvernance des technologies liées à l’IAG : des entreprises privées, des gouvernements, ou des organismes indépendants ?
Vous avez lu gratuitement 325 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 11/12/2024 à 17:33
Triste comme ces personnes peuvent fumer de la moquette !
Ils sont donc arrivé à faire une AI Générale !
Alors plus d'hallucinations, de mensonges, de biais ! Wahoo !!!
Cette AIG est capable d'évaluer la pertinence de ce qu'elle dit avec les sources ? De tester la robustesse des données de sa base d'intelligence ? D'en demander de supplémentaires car elle ne peut répondre a la question posée ? ...
Ah ! Non... Crottes !!!

Les IA des modèles actuels sont des perroquets scolastiques qui proposent le plus probable et normalement (malheureusement) incapables de produire une idée neuve par rapport à sa base d' apprentissage.
La connaissance encyclopédique n'est pas de l'intelligence, c'est juste bluffant.
Si cette iag fait de l'inférence, quelles sont les domaines mathématiques qu'elle aurait déjà épuisé ? Les trucs sympas qu'elle a démontré avec plus de finesse que l'humain ?
Altman sera mort avant que l'humanité le voit. Il est jeune Altman...
4  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 30/12/2024 à 10:02
Citation Envoyé par Mat.M Voir le message
ça c'est un truc bien français la technophobie.
Et si un jour vous avez une pathologie et que votre médecin interroge un système d'I.A. pour établir un diagnostic afin de guérir rapidement ?
C'est un truc bien français de mépriser les français. Intéressante proposition récursive... J'ai l'impression que c'est dû au fait que nous nous croyons au centre du monde, un peu comme les américains: Non les français ne sont pas plus technophobes que les autres, mais il faudrait s'intéresser aux autres pour s'en rendre compte.
J'ai vécu dans plusieurs pays, et je peux t'assurer que l'immense majorité des poncifs sur les français sont faux.

Je ne suis pas technophobe, mais je suis critique.
De toutes façons, je pense qu'il y a quiproquo: Je critiquais l'utilisation des LLM, pas de l'IA en général.
4  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/07/2025 à 22:15
Citation Envoyé par Artemus24 Voir le message
Si je prends le cas de ChatGPT, il se sert de l'internet comme base de données pour effectuée une recherche. Rien à voir avec un quelconque apprentissage. Il peut même retourner de fausses informations puisqu'il est incapable de comprendre le sens même de la question posée. C'est en cela que je dis que pour l'instant, l'IA est une fumisterie, car ce que l'on nous présente n'est pas une IA générative et n'a aucune capacité d'apprentissage, juste une recherche améliorée.
Si si, c'est de l'apprentissage, mais tu es tombé dans le piège marketing de l'IA. Ce que l'IA générative apprend, ce n'est pas le savoir que tu trouves sur internet. C'est comment écrire du contenu qui ressemble à ce que tu trouves sur internet. C'est très différent et ça éclaire beaucoup de choses.

ChatGPT, Mistral, Claude, Gemini, et des milliers d'autres LLM qu'on peut trouver sur Hugging Face, y compris des équivalents des modèles commerciaux précédents, sont bel et bien basé sur l'apprentissage. Quand tu fais une requête, le principe de base du LLM n'est pas de faire une recherche sur internet. Il ne l'utilise pas lors de ta requête. Le LLM a été entrainé auparavant sur le contenu internet, comme AlphaGo a été entrainé sur des parties existantes de Go avant de jouer ses matchs. Mais là où AlphaGo a appris à jouer au Go, les LLM apprennent à générer du texte humain : ce qui vient après "le chat a mangé la" est de toute évidence "souris", parce que c'est ça le plus probable dans un texte humain. Peu importe que ce soit vrai ou pas, c'est statistiquement le plus probable. Un LLM génère du texte cohérent, et non pas vrai, c'est fondamental à comprendre car c'est la raison pour laquelle il peut fournir de fausses informations. On appelle ça des illusions mais ça n'a rien de spécial : c'est la limite fondamentale d'un LLM. La ressemblance à du texte humain est tout ce qui compte, la vérité il ne la connais pas. Internet sert à l'entrainement, mais à l'usage il génère une réponse sur la base de ce qu'il en a retenu, sans l'utiliser à nouveau.

Maintenant les LLM peuvent être augmentés par différents outils, et pour comprendre comment ça fonctionne il faut comprendre que plus on donne de contexte et plus le LLM pourra générer une réponse orientée. Par exemple, si tu ajoute comme contexte "Dans un monde où les plus petits mangent les plus gros" ce qui vient après "le chat a mangé la" pourrais bien être autre chose que "souris", genre "vache", car ça ne serait pas cohérent avec ce qui a été écrit avant. Ainsi, apporter du contexte permet d'orienter la réponse pour que le LLM génère une réponse cohérente qui va dans le sens qui nous intéresse. Cela reste statistique, on n'aura pas forcément ce qu'on veut, mais les chances augmentent.

Une fois qu'on sait exploiter le contexte, on peut utiliser des outils du genre récupération de données sur internet. On les ajoute au contexte avant de demander de répondre. La réponse sera donc influencée par ce qu'on a ajouté au contexte. Toujours dans le but de générer du texte cohérent, et non pas vrai. Tu peux ajouter des pages Web, des PDFs, des images (pour les modèles qui savent les traiter) et autres données au format textuel (CSV, Markdown, XML, JSON, etc.). Si tu demandes "Décrit moi les caractéristiques d'un transistor BD777", il te sortira quelque chose qui ressemble à une description technique de transistor, mais si tu compares à la datasheet ça sera surement du pur bullshit. Si tu lui donnes la datasheet en contexte, la même question te retournera quelque chose de bien plus proche de la réalité, peut-être même parfaitement correct. Pas parce que c'est ce qui est vrai (il peut toujours sortir du bullshit) mais parce que c'est cohérent avec le contexte donné avec la requête.

Une fois qu'on a compris ça, on a compris qu'il ne faut jamais faire aveuglément confiance à un LLM. Il faut soit lui demander des trucs où on se fiche de l'aspect véridique (e.g. role play, création d'histoire, etc.) soit lui demander des trucs dont on sait pertinement qu'on passera derrière pour vérifier (ou un tiers de confiance, genre une suite de tests valides pour du code généré par IA). On peut être surpris de voir quelque chose qui semble fonctionner à la perfection, mais on n'est jamais à l'abri d'un dérapage complet.

Tout comme AlphaGo est très bon pour jouer au Go, les LLM sont très bon pour générer du texte cohérent. Mais comme on ne demandera pas à AlphaGo d'expliquer ses coups, on ne demandera pas au LLM de dire des choses factuellement vraies. Il n'en sont juste pas capables car pas entraînés pour ça. La phase de fine tuning qui vient après l'apprentissage oriente le type de discours du LLM, mais ça ne corrige pas complètement ses lacunes fondamentales.

À voir ce qu'il en sera avec ce que Yann Lecun nous sortira.
4  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 13/12/2024 à 17:12
Citation Envoyé par jpouly Voir le message
Sans déconner, l'IA est intéressante dans des domaines très pointu, comme le médicale.
Et encore...
L'IA dans le médical, pour faire court, ce sont des milliards de milliards de dollars investis pour permettre à une poignée de gens très riches de vivre un peu plus longtemps.
Alors que des seulement quelques milliards suffiraient à résoudre des problèmes de santé qui impactent des milliards de personnes.
3  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 07/07/2025 à 13:19
Citation Envoyé par Artemus24 Voir le message
Si je prends le cas de ChatGPT, il se sert de l'internet comme base de données pour effectuée une recherche.
C’est assez différent… Demande à ton IA de faire une analyse grammaticale de cette phrase, il te la fera alors que personne n’a anticipé ta phrase, puis fait l’analyse grammaticale pour en permettre l’indexation

Ainsi, ChatGPT a intuité les notions de conjonction de subordination, de sujet, de verbe, etc.

Donc, oui, il s’est servi d’internet, mais pas pour bêtement l’indexer, mais tisser des relations entre les mots, leur usage, etc de la même manière que j’ai appris en écoutant mon entourage.Et dans les deux cas, cela se traduit par des relations entres neurones.

Bon, les capacités ne sont pas les mêmes (nombres de neurones…), les modes de conception différents (des ingénieurs sur quelques décénnie vs. sélection naturelle sur des millions d’années), la base pour apprendre n’est pas la même. Mais d’une certaine manière on a des propriétés émergentes de même nature (sans pour autantqu’il soit question d’égalité). Bon forcément avec les limitations, il n’est pas anormal d’avoir des hallucinations (comparables à mes difficultés à retenir certains prénoms ou autres…). Il faut juste intégrer cette lacune selon l’importance du résultat (vérifier les sources).
3  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 09/12/2024 à 14:34
Je ne suis pas certain qu'en imitant l'humain, une IA pourra faire mieux. A la limite, elle effectuera (ou reprendra) la meilleure solution qu'un humain produira, en admettant qu'elle sera à sa disposition, mais pas au delà de ce qu'un humain pourrait faire. La question est "comment faire mieux qu'un humain" ? Je pense qu'il faut penser autrement qu'un humain, et peut-être découvrir un autre mode de pensée, que l'on n'a pas encore envisagé, pour produire un résultat qui soit bien meilleur que celui d'un humain.

Je veux dire que le champs d'expérimentation de l'IA est l'internet et de tout ce que l'humain y dépose. L'IA ne sait pas raisonner et c'est cela le problème. Il ne peut que trouver dans cette base de données qu'est l'internet, la réponse qu'il cherche. L'autre question est "comment apprendre à une IA à raisonner par elle même " ? Dans ce cas, l'IA devient incontrôlable, voire même impossible à vérifier ce qu'elle va affirmer. Et du coup, l'humain n'a plus aucun contrôle sur l'IA.
2  0 
Avatar de
https://www.developpez.com
Le 10/12/2024 à 9:34
OpenAI
Notre mission est de veiller à ce que l'intelligence artificielle générale - des systèmes d'intelligence artificielle généralement plus intelligents que les humains - profite à l'ensemble de l'humanité.

Si l'IAG est créée avec succès, cette technologie pourrait nous aider à élever l'humanité en augmentant l'abondance, en donnant un coup de fouet à l'économie mondiale et en contribuant à la découverte de nouvelles connaissances scientifiques qui repoussent les limites du possible.

L'IAG a le potentiel de donner à chacun d'incroyables nouvelles capacités ; nous pouvons imaginer un monde où chacun d'entre nous aurait accès à de l'aide pour presque toutes les tâches cognitives, ce qui multiplierait considérablement la force de l'ingéniosité et de la créativité humaines.

D'un autre côté, l'AGI s'accompagnerait également d'un risque sérieux de mauvaise utilisation, d'accidents graves et de perturbations sociétales. Étant donné que l'AGI présente des avantages considérables, nous ne pensons pas qu'il soit possible ou souhaitable pour la société d'arrêter définitivement son développement ; au contraire, la société et les développeurs de l'AGI doivent trouver le moyen de bien faire les choses.
Bullshit ... Totalement incompatible dans un environnement économique hyperspéculatif, rivé (voire riveté) sur la rentabilité et la maximisation des profits, avec une politique de privatisation globale (impliquant une société de type carcéral basée sur le contrôle et la surveillance via un Grid supervisé par une AGI avec des capacités militaires autonomes renforcées) et de marchandisation complète du vivant. Cela dit c'est Open hein.
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 16/12/2024 à 21:22
Bon j'étais carrément loin des vrais chiffres.
C'est 10 levées de fonds pour un total de 17.9 milliards de dollars. Donc 11 fois moins que ce que j'annonçais.
Sur les 10 tours, il y en a 2 où ils n'ont pas divulgué les montants levé.
L'entreprise est cotée à 157 milliards de dollars.

https://tracxn.com/d/companies/opena...estors#funding
2  0 
Avatar de Mat.M
Expert éminent sénior https://www.developpez.com
Le 27/12/2024 à 20:04
Citation Envoyé par mclane1 Voir le message
Chatgpt s'est bon pour ceux qui savent super bien ce qu'ils veulent..
là je viens de poser une question en anglais "how to create a customer management project in java ?" sur ChatGPT,je suis bluffé ça me sort tout le code en Java, la connection sur base de données , la création de table, l'interface utilisateur etc...
c'est pareil pour utiliser Direct3d que ce soit version 9 ou ver 11,ça me sort tout le code dont j'ai besoin

Citation Envoyé par r0d Voir le message
Et encore...
L'IA dans le médical, pour faire court, ce sont des milliards de milliards de dollars investis pour permettre à une poignée de gens très riches de vivre un peu plus longtemps.
.
ça c'est un truc bien français la technophobie.
Et si un jour vous avez une pathologie et que votre médecin interroge un système d'I.A. pour établir un diagnostic afin de guérir rapidement ?
2  0 
Avatar de stigma
Membre expérimenté https://www.developpez.com
Le 30/12/2024 à 8:39
Cette hyper technologie aux mains d'un gouvernement totalitaire (mondial ? ) fait déjà froid dans le dos. Ceux qui pensent que tout cela fera le bonheur des humains se trompent lourdement.
2  0