IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI : « Nous avons conclu un accord de principe pour que Sam Altman revienne chez OpenAI en tant que PDG »
Un retour qui s'accompagne d'un changement dans le conseil d'administration

Le , par Stéphane le calme

2PARTAGES

5  0 
Sam Altman, qui a été licencié vendredi dernier de son poste de PDG d’OpenAI, la startup d’intelligence artificielle la plus connue au monde, était en pourparlers avec le conseil d’administration de l’entreprise pour éventuellement reprendre ses fonctions. Après toutes ces péripéties, OpenAI annonce être parvenu à un accord de principe : Sam Altman revient en temps que PDG.

Altman, qui était devenu le visage de l’intelligence artificielle après le succès viral de son chatbot, ChatGPT, aurait des réticences à revenir et aurait demandé des changements importants dans la gouvernance de l’entreprise.

Le licenciement d’Altman a provoqué un séisme dans le secteur technologique et a plongé OpenAI dans le chaos. Plusieurs personnes, dont le président d’OpenAI, Greg Brockman, ont démissionné par solidarité avec Altman. Le conseil d’administration d’OpenAI fait également face à la pression des investisseurs, dont Microsoft et SoftBank, pour rétablir Altman. Il y a même une possibilité que le conseil d’administration lui-même démissionne dans les prochains jours.

Les raisons du limogeage d’Altman restent floues, mais il semblerait qu’il y ait eu des désaccords profonds entre le PDG et son conseil sur la sécurité, la vitesse de développement et la commercialisation de l’intelligence artificielle.

Un sujet sur lequel est revenu Vinod Khosla, l'un des premiers investisseurs de l'entreprise :

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.

Les meilleures entreprises sont celles dont les visions sont dirigées et mises en œuvre par leurs entrepreneurs fondateurs, ceux qui mettent tout en jeu pour remettre en question le statu quo - des fondateurs comme Sam Altman - qui affrontent le risque de front et qui sont concentrés - donc totalement - pour rendre le monde meilleur. Les choses peuvent mal tourner et des abus se produisent, mais les avantages des bons fondateurs dépassent de loin les risques des mauvais. [...] Une vision globale qui change le monde est axiomatiquement risquée. Cela peut même faire peur. Mais c’est le seul levier grâce auquel la condition humaine s’est améliorée au cours de l’histoire. Et nous pourrions détruire ce potentiel avec des discours universitaires sur un risque existentiel insensé, à mon avis.

C'est dans ce contexte qu'ont eu lieu les négociations...

Malgré l'offre de Microsoft, Sam Altman et le co-fondateur Greg Brockman étaient toujours prêts à revenir chez OpenAI à condition entre autres que les autres membres du conseil d'administration qui l'ont [Sam Altman] licencié se retirent.

L’exode massif promis de pratiquement tous les employés d’OpenAI – y compris le membre du conseil d’administration et scientifique en chef Ilya Sutskever, qui a dirigé la démarche initiale visant à destituer Altman – signifie qu'il y a plus de pression que jamais sur le conseil d'administration. Altman a posté sur X que « nous allons tous travailler ensemble d’une manière ou d’une autre », ce qui est censé indiquer que le combat continue.

Altman, l'ancien président Brockman et les investisseurs de la société tentaient alors toujours de trouver une sortie en douceur pour le conseil d'administration, indiquaient plusieurs sources ayant une connaissance directe de la situation. Les sources ont qualifié l’annonce d’embauche par Microsoft, qui devait trouver une solution à la crise avant l’ouverture de la bourse lundi, de « modèle d’attente ».

Microsoft avait déjà annoncé qu'il embauchait Altman, bien que le PDG de Microsoft, Satya Nadella, a suggéré lundi qu'il était ouvert au retour d'Altman à OpenAI. À la question « est-ce que Sam Altman va devenir un employé Microsoft ? », ce dernier a répondu :

Vendredi matin, je me suis levé et j'étais très engagé envers nos clients, notre feuille de route technologique et j'ai vraiment collaboré avec OpenAI et avec Sam. Et là, alors que nous parlons lundi, je suppose que c'est exactement au même endroit où je me trouve, c'est-à-dire que, je pense, nous avons toute la technologie et la capacité pour continuer à innover sur les produits que vous avez vus lors de notre dernière conférence Ignite la semaine dernière, allant du silicium à Copilot, tout en étant engagé envers OpenAI et Sam, quelle que soit la configuration. Évidemment, nous voulons que Sam et Greg aient un foyer fantastique, s'ils venaient à ne plus retourner chez OpenAI, mais, vous savez, j'en suis exactement là où j'étais vendredi matin.

Altman a indiqué que la « priorité absolue » pour lui et Nadella est de garantir qu'OpenAI « continue de prospérer » et qu'ils « s'engagent à assurer pleinement la continuité des opérations à nos partenaires et clients ». Le partenariat OpenAI/Microsoft « rend cela tout à fait réalisable », a-t-il ajouté.


... qui ont abouties au retour de principe de Sam Altman en tant que PDG

Le conseil d'administration a fini par céder et a indiqué le retour de principe de Sam Altman :

Nous avons conclu un accord de principe pour que Sam Altman revienne chez OpenAI en tant que PDG avec un nouveau conseil d'administration initial composé de Bret Taylor (président), Larry Summers et Adam D'Angelo.

Nous collaborons pour comprendre les détails. Merci beaucoup pour votre patience à travers cela.
Une nouvelle qui ne va peut-être pas plaire à Emmett Shear, qui, comme son prédécesseur, n'aura pas mis longtemps sur le siège du PDG intérimaire de l'entreprise. Il s'était d'ailleurs fendu d'un discours indiquant qu'il a réfléchi à la situation et les chantiers qu'il allait attaquer :

Aujourd'hui, j'ai reçu un appel m'invitant à considérer une opportunité unique dans une vie : devenir le PDG intérimaire de @OpenAI. Après avoir consulté ma famille et réfléchi quelques heures, j'ai accepté. J'avais récemment démissionné de mon poste de PDG de Twitch en raison de la naissance de mon fils de 9 mois. Passer du temps avec lui a été tout aussi gratifiant que je l'avais imaginé, et j'étais heureux d'éviter un emploi à temps plein. J'ai accepté ce poste parce que je crois qu'OpenAI est l'une des entreprises les plus importantes qui existent actuellement. Lorsque le conseil d'administration m'a fait part de la situation et m'a demandé de prendre ce rôle, je n'ai pas pris cette décision à la légère. En fin de compte, j'ai senti que j'avais le devoir d'aider si je le pouvais.

J'ai passé la journée d'aujourd'hui à m'abreuver le plus possible, à parler au conseil d'administration, à un petit nombre de partenaires majeurs et à écouter les employés. Notre partenariat avec Microsoft reste solide, et ma priorité dans les semaines à venir sera de m'assurer que nous continuons à bien servir tous nos clients. Les employés d'OpenAI sont extrêmement impressionnants, comme vous l'avez peut-être deviné, et extrêmement motivés par leur mission. Il est clair que le processus et la communication autour du renvoi de Sam ont été très mal gérés, ce qui a gravement entamé notre confiance.

Certains d'ailleurs n'ont pas manqué de taquiner Emmett Shear comme cet internaute qui a posté sur X/Twitter :

Une tentative de récupération des talents

Durant cette saga, Microsoft et Salesforce ont cherché à embaucher des employés d'OpenAI qui se révoltent contre le licenciement d'Altman. Lundi en fin de journée, près de 95% des employés d'OpenAI avaient signé une lettre menaçant de démissionner et de rejoindre Altman chez Microsoft si le licenciement n'était pas annulé :

L'équipe de direction a suggéré que la voie la plus stabilisatrice - celle qui servirait le mieux notre mission, notre entreprise, nos parties prenantes, nos employés et le public - serait que vous démissionniez et que vous mettiez en place un conseil d'administration qualifié qui pourrait conduire l'entreprise vers la stabilité. . Les dirigeants ont travaillé avec vous 24 heures sur 24 pour trouver un résultat mutuellement acceptable. Pourtant, deux jours après votre décision initiale, vous avez de nouveau remplacé la PDG par intérim Mira Murati, au mépris des meilleurs intérêts de l'entreprise. Vous avez également informé l'équipe de direction que permettre la destruction de l'entreprise « serait conforme à la mission ».

Vos actions ont montré clairement que vous êtes incapable de superviser OpenAI. Nous sommes incapables de travailler pour ou avec des personnes qui manquent de compétence, de jugement et de souci pour notre mission et nos employés. Nous, soussignés, pouvons choisir de démissionner d'OpenAI et de rejoindre la filiale Microsoft nouvellement annoncée, dirigée par Sam Altman et Greg Brockman. Microsoft nous a assuré qu'il y aurait des postes pour tous les employés d'OpenAI dans cette nouvelle filiale si nous choisissions d'y adhérer. Nous prendrons cette mesure de manière imminente, à moins que tous les membres actuels du conseil d'administration ne démissionnent et que le conseil nomme deux nouveaux administrateurs indépendants principaux, tels que Bret Taylor et Will Hurd, et réintègre Sam Altman et Greg Brockman.
Le directeur technique de Microsoft, Kevin Scott, a répondu à la pétition dans un message publié sur X/Twitter : « À mes partenaires chez OpenAI*: nous avons vu votre pétition et apprécions votre désir de rejoindre potentiellement Sam Altman au nouveau laboratoire de recherche en IA de Microsoft. Sachez que si nécessaire, vous avez un rôle chez Microsoft qui correspond à votre rémunération et fait progresser notre mission collective ».

Le PDG de Salesforce, Marc Benioff, a également fait un pitch. Il a écrit que Salesforce égalerait le salaire et les capitaux propres de « tout chercheur OpenAI ayant présenté sa démission » et leur donnerait des postes au sein de l'équipe de recherche Salesforce Einstein Trusted AI.

Source : annonce OpenAI (dans le texte)

Et vous ?

Comment trouvez-vous la gestion de la situation par OpenAI ? Pourrait-elle remettre en cause sa structure de gouvernance ?
Êtes-vous surpris de revoir Sam Altman revenir « en principe » aux commandes ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Eye_Py_Ros
Membre à l'essai https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 15:16
On devrait lui dire : "oh calme toi ! Non tu n'as pas tous les droits.".
0  0 
Avatar de Matthieu_26
Membre régulier https://www.developpez.com
Le 22/11/2023 à 19:35
Ça te barbera - épisode 69

Scène 1 : Dans le salon
Satya est en sanglot dans toute la scène...

Satya : (soupir fort) - Franchement, sur ce coup là, tu m'as déçu, Sam... T'était-il vraiment impossible d'agir autrement que tel que tu aurais pu le faire autrement ?

Sam : Ecoutes… Satya

Satya : Réponds moi, Sam...

Sam: Satya, j'ai pas peur de te le dire en face : Si j'ai agi ainsi, c'est parce que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : Bien sûr que je te comprends ! Mais, où veux-tu en venir ?

Sam : Je veux en venir que si j'ai agit de la sorte, c'est que…

Satya : C'est que quoi ?

Sam : C'est que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : C'était donc ça ?

Sam : Ouais !

Satya : Sam , comprends moi, mets toi donc à ma place !

Sam : Que je me mette à ta place ?

Satya : Ouais !

Sam : Ok ! (étouffé)
La suite dans le prochain épisode...
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/01/2024 à 7:40
Citation Envoyé par Mathis Lucas Voir le message
L'un des plus gros problèmes de l'absence de raisonnement est que cela rend les grands modèles de langage vulnérables aux hallucinations, aux biais systématiques et d'autres pièges. Cette lacune signifie que l'on ne peut pas faire complètement confiance à l'IA, car elle peut présenter des informations erronées comme étant vraies.
On ne peut faire complètement confiance à une seule source, qu'elle soit informatique, humaine ou journalistique, c'est pour ça qu'il faut recroiser les sources.
Espérer pouvoir se fier à 100% à une IA est illusoire, même si une tonne d'entreprises essayent de vous le vendre.
0  0