IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Que s'est-il passé chez OpenAI ? Microsoft et d'autres investisseurs tentent de faire revenir Sam Altman en vain en tant que PDG
Le PDG par intérim est déjà remplacé et Altman rejoint Microsoft

Le , par Stéphane le calme

6PARTAGES

14  0 
OpenAI, la célèbre a annoncé le licenciement de son cofondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d’administration sur plusieurs aspects de son activité. La décision de destituer Altman a provoqué la colère de certains investisseurs d’OpenAI, qui ont lancé une campagne de pression pour le rétablir dans ses fonctions. Selon eux, Altman est le mieux placé pour réaliser la vision d’OpenAI, qui est de créer une intelligence artificielle générale (IAG) bénéfique pour l’humanité. Ils craignent que la nouvelle direction ne se concentre trop sur la rentabilité et la commercialisation des produits d’OpenAI, au détriment de la recherche fondamentale et de l’éthique.

Vendredi, OpenAI a licencié le PDG Sam Altman dans une décision surprise qui a conduit à la démission du président Greg Brockman et de trois scientifiques chevronnés. Cette décision a également été un choc pour l'investisseur clé et propriétaire minoritaire Microsoft, elle aurait même rendu furieux le PDG Satya Nadella. Des rapports ont révélé que l'éviction avait probablement été orchestrée par le scientifique en chef Ilya Sutskever en raison d'inquiétudes concernant la sécurité et la rapidité du déploiement technologique d'OpenAI.

Depuis sa création, OpenAI a poursuivi le développement de l’intelligence artificielle générale (ou AGI), qui est une technologie hypothétique capable d’effectuer n’importe quelle tâche intellectuelle qu’un humain peut accomplir, remplaçant potentiellement un grand nombre d’humains dans leur travail.

En interne chez OpenAI, les initiés affirment que des désaccords sont apparus sur la vitesse à laquelle Altman faisait pression pour la commercialisation et la croissance de l'entreprise, Sutskever plaidant pour ralentir les choses. Des sources ont déclaré à la journaliste Kara Swisher que l'événement OpenAI Dev Day du 6 novembre, avec Altman au premier plan dans un discours promouvant les produits de consommation, était un « moment d'inflexion où Altman poussait trop loin, trop vite ».

Dans un communiqué commun publié sur X/Twitter, Altman et Brockman se sont déclarés « choqués et attristés » par les actions du conseil d'administration. Et ils n’étaient pas les seuls à être choqués par la nouvelle, puisque les initiés de la technologie se sont tournés vers les réseaux sociaux ce weekend pour partager leurs réactions. Le business angel Ron Conway a écrit : « Ce qui s'est passé aujourd'hui à OpenAI est un coup d'État du conseil d'administration comme nous n'en avons pas vu depuis 1985, lorsque le conseil d'administration d'Apple a chassé Steve Jobs. C'est choquant, c'est irresponsable et cela ne convient pas à Sam & Greg ainsi que tous ceux qui ont participé à la construction d'OpenAI ».


Le conseil d'administration d'OpenAI

OpenAI a une structure inhabituelle dans laquelle sa branche à but lucratif est détenue et contrôlée par un organisme de bienfaisance public à but non lucratif 501(c)(3). Avant cet épisode, cette organisation à but non lucratif était contrôlée par un conseil d'administration qui comprenait Altman, Brockman, Ilya Sutskever et trois autres qui n'étaient pas des employés d'OpenAI : Adam D'Angelo, le PDG de Quora ; Tasha McCauley, scientifique adjointe à la haute direction de la société RAND*; et Helen Toner, directrice de la stratégie et des subventions de recherche fondamentale au Centre pour la sécurité et les technologies émergentes de Georgetown. Des six, il ne reste plus que Sutskever, D'Angelo, McCauley et Toner.

Contrairement aux entreprises traditionnelles, le conseil d’administration n’a pas pour mission de maximiser la valeur actionnariale et aucune d’entre elles ne détient de participation dans OpenAI. Au lieu de cela, leur mission déclarée est d’assurer la création d’une intelligence générale artificielle (AGI) « largement bénéfique ».


Des investisseurs tentent de faire réintégrer Sam Altman dans son rôle de PDG, celui-ci voudrait la destitution des membres actuels du conseil d'administration

Les efforts déployés par un groupe de dirigeants et d'investisseurs d'OpenAI pour réintégrer Sam Altman dans son rôle de PDG ont abouti à une impasse sur la composition et le rôle du conseil d'administration, selon des personnes proches des négociations. Une solution pourrait intervenir rapidement, même si les pourparlers sont fluides et en cours.

Altman est disposé à revenir mais souhaite voir des changements de gouvernance, y compris la destitution des membres actuels du conseil d'administration, ont déclaré les personnes, qui ont demandé à ne pas être identifiées car les négociations sont privées. Il demande également une déclaration l’exonérant de tout acte répréhensible, ont-ils déclaré. Après avoir été confronté à une intense indignation suite à cette éviction, le conseil d'administration a initialement accepté en principe de se retirer, mais a jusqu'à présent refusé de le faire officiellement. Les administrateurs ont examiné les candidats pour de nouveaux administrateurs.

Les principaux dirigeants d'OpenAI font également pression pour que le conseil d'administration démissionne et ramène Altman, a déclaré l'une des personnes. La liste comprend la PDG par intérim Mira Murati, le directeur de la stratégie Jason Kwon et le directeur de l'exploitation Brad Lightcap, a indiqué la personne.

La campagne pour réintégrer Altman a commencé peu après son licenciement vendredi, lorsque les membres du conseil d'administration dirigés par le scientifique en chef d'OpenAI, Ilya Sutskever, ont licencié Altman et l'ont démis de ses fonctions de directeur, affirmant « qu'il n'était pas toujours franc dans ses communications avec le conseil d'administration ». Quelques heures plus tard, le président Greg Brockman, qui avait également été exclu du conseil d’administration, a démissionné pour protester contre les événements de la journée.

Un problème de longue date qui divise l’entreprise était la volonté d’Altman de transformer OpenAI, qui a commencé comme une organisation à but non lucratif, en une entreprise prospère – et la rapidité avec laquelle il souhaitait que l’entreprise lance des produits et inscrive des clients. Cela s’est heurté aux inquiétudes des membres du conseil d’administration concernant la sécurité des outils d’intelligence artificielle capables de générer du texte, des images et même du code informatique avec un minimum de sollicitations.

Dimanche midi, des indices ont commencé à émerger selon lesquels une résolution des négociations pourrait être proche. Altman et Brockman se sont présentés au siège d’OpenAI à San Francisco, a déclaré une personne connaissant le sujet. Sur le site social X, Altman a ensuite publié une image de lui-même dans les bureaux portant un badge d'invité, avec une légende qui disait : « Première et dernière fois que j'en porte un ».

La PDG par intérim déjà remplacée

Le conseil d'administration aurait eu jusqu'à 17 heures pour accéder aux demandes d’Altman et de ses partisans. Afin de le ramener au poste de PDG, le conseil d'administration pourrait être amené à publier une déclaration l'exonérant de tout acte répréhensible, selon une personne proche des négociations. Toutefois, céder pourrait rendre les membres du conseil d’administration vulnérables d’un point de vue juridique, a ajouté cette personne.

Après avoir dépassé ce délai de 17 heures (heure du Pacifique), certains médias ont appris que l'accord pour le retour de Sam Altman s'était effondré, et OpenAI a désormais son troisième PDG en un week-end, alors que l'ancien patron de Twitch, Emmett Shear, prend le relais.

En fait, ce week-end, la nouvelle PDG par intérim, Mira Murati, a elle aussi plaidé pour un retour de Sam Altman et de Greg Brockman, contre l'avis du conseil d'administration. Ce qui a sans doute convaincu le conseil qu'il était nécessaire de la remplacer.

Bret Taylor, l'ancien co-PDG de Salesforce Inc., fera partie du nouveau conseil d'administration, ont indiqué plusieurs personnes. Un autre ajout possible est un cadre de Microsoft, basé à Redmond, dans l'État de Washington, mais il n'est pas clair si la grande enseigne du logiciel peut ou va siéger au conseil d'administration en raison de problèmes réglementaires.

« Une décision qui n'a pas été prise en réponse à des malversations »

Une note interne rédigée par Brad Lightcap, directeur de l'exploitation d'OpenAI et obtenue par Axios, indique que la décision du conseil d'administration de licencier Altman « n'a pas été faite en réponse à un délit ou à quoi que ce soit lié à nos pratiques financières, commerciales, de sûreté ou de sécurité/confidentialité. Il s'agissait d'une rupture de communication entre Sam et le conseil d'administration ».

Le mémo indique que l'annonce du licenciement d'Altman « nous a tous pris par surprise » et que Lightcap s'est efforcé de mieux comprendre « les raisons et le processus derrière leur décision ».

« Je suis sûr que vous ressentez tous de la confusion, de la tristesse et peut-être un peu de peur », écrit Lightcap. « Nous nous concentrons pleinement sur la gestion de ce problème, en visant une résolution et une clarté, et en nous remettant au travail. Notre responsabilité collective en ce moment est envers nos coéquipiers, partenaires, utilisateurs, clients et le monde en général qui partage notre vision d'une AGI largement bénéfique. Accrochez-vous, nous sommes derrière vous à 1000% ».

Altman trouve une alternative du côté de Microsoft

Ce lundi matin, Sam Altman et Greg Brockman, tous deux cofondateurs d'OpenAI ont rejoint Microsoft, a expliqué le PDG de Microsoft, Satya Nadella, sur X (ex-Twitter) :

Nous restons attachés à notre partenariat avec OpenAI et avons confiance dans notre feuille de route produit, dans notre capacité à continuer à innover avec tout ce que nous avons annoncé lors de Microsoft Ignite et à continuer à soutenir nos clients et partenaires. Nous sommes impatients de faire connaissance avec Emmett Shear et la nouvelle équipe de direction d'OAI et de travailler avec eux. Et nous sommes extrêmement heureux d’annoncer que Sam Altman et Greg Brockman, ainsi que leurs collègues, rejoindront Microsoft pour diriger une nouvelle équipe de recherche avancée sur l’IA. Nous sommes impatients d’agir rapidement pour leur fournir les ressources nécessaires à leur réussite.
« La mission continue », a réagi à cette annonce Sam Altman.

Et Elon Musk de répondre à Nadella en ces termes : « maintenant ils vont devoir utiliser Teams »

L’influence d’Altman s’ajoute à la fidélité de plusieurs employés, ont déclaré ses proches et l’entreprise. Les principaux d’entre eux sont des chercheurs scientifiques de haut niveau considérés comme le pilier de la propriété intellectuelle d’OpenAI et des contributeurs aux grands modèles de langage au cœur de son chatbot révolutionnaire ChatGPT, a déclaré l’une des personnes.

Source : publications dans le texte

Et vous ?

Pensez-vous que Sam Altman mérite d’être réintégré comme PDG d’OpenAI ? Pourquoi ou pourquoi pas ?
Quels sont les avantages et les inconvénients de la collaboration entre OpenAI et Microsoft ? Craignez-vous que Microsoft n’ait trop d’influence sur les orientations d’OpenAI ?
Comprenez-vous pourquoi la PDG par intérim a été remplacée le temps d'un weekend ?
Quelle est votre opinion sur la création d’une intelligence artificielle générale (IAG) ? Est-ce un objectif souhaitable ou dangereux pour l’humanité ? Est-ce même un objectif réaliste ?
Que pensez-vous du fait que Microsoft a récupéré Sam Altman et ses compères ? Une opportunité que l'entreprise a saisi ou une réaction de protestation vis-à-vis de la décision du conseil ?
Comment évaluez-vous la qualité et l’impact des produits d’OpenAI, tels que ChatGPT, Codex ou DALL-E ? Les utilisez-vous ou les recommandez-vous ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 21/11/2023 à 15:12
ils sont malin chez Microsoft.......j'ai rien dit
1  0 
Avatar de kmedghaith
Membre confirmé https://www.developpez.com
Le 30/04/2024 à 9:29
GPT-5 sera beaucoup plus intelligent que GPT-4 et GPT-6 sera beaucoup plus intelligent que GPT-5
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
1  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/04/2024 à 12:36
Citation Envoyé par kmedghaith Voir le message
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
Nos données.
1  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 21/11/2023 à 2:06
Et toi, Ilya ? Sam Altman est le Jules César de l'IA

0  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 21/11/2023 à 19:47
a été ( indicatif )
0  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0 
Avatar de
https://www.developpez.com
Le 22/11/2023 à 15:16
On devrait lui dire : "oh calme toi ! Non tu n'as pas tous les droits.".
0  0 
Avatar de Matthieu_26
Membre régulier https://www.developpez.com
Le 22/11/2023 à 19:35
Ça te barbera - épisode 69

Scène 1 : Dans le salon
Satya est en sanglot dans toute la scène...

Satya : (soupir fort) - Franchement, sur ce coup là, tu m'as déçu, Sam... T'était-il vraiment impossible d'agir autrement que tel que tu aurais pu le faire autrement ?

Sam : Ecoutes… Satya

Satya : Réponds moi, Sam...

Sam: Satya, j'ai pas peur de te le dire en face : Si j'ai agi ainsi, c'est parce que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : Bien sûr que je te comprends ! Mais, où veux-tu en venir ?

Sam : Je veux en venir que si j'ai agit de la sorte, c'est que…

Satya : C'est que quoi ?

Sam : C'est que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : C'était donc ça ?

Sam : Ouais !

Satya : Sam , comprends moi, mets toi donc à ma place !

Sam : Que je me mette à ta place ?

Satya : Ouais !

Sam : Ok ! (étouffé)
La suite dans le prochain épisode...
0  0