IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Nous avons désormais plus de détails sur ce qui s'est passé à OpenAI et qui a conduit au licenciement de Sam Altman
Ce dernier a été accusé de monter les membres du conseil les uns contre les autres

Le , par Stéphane le calme

16PARTAGES

15  0 
OpenAI a décidé de licencier son cofondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d’administration sur plusieurs aspects de son activité. S'il est désormais revenu au sein de l'entreprise, la véritable histoire derrière cette affaire qui a tenu les internautes en haleine restait quelque peu opaque. Un journaliste a publié de nombreux nouveaux détails sur ce qui, selon lui, s'est produit au sein du conseil d'administration d'OpenAI et qui a conduit au limogeage du PDG Sam Altman. Il affirme avoir passé les six derniers mois à travailler sur un article centré sur le directeur de la technologie de Microsoft, Kevin Scott, et Mira Murati, qui a occupé ce poste chez OpenAI. Puis, tout à coup, il s’est retrouvé au milieu du plus grand scandale technologique du moment.

Le quotidien avait précédemment rapporté que la raison pour laquelle la relation entre le conseil d'administration et Altman s'était détériorée n'était pas parce que le conseil se dirigeait trop vite vers l'intelligence artificielle générale, mais qu'il avait tenté d'exclure un membre du conseil d'administration, Helen Toner, et que cela s'était retourné contre lui.

Cette fois-ci, le quotidien a offert plus de détails. Ci-dessous un extrait de la publication du média (l'emphase est notre) :

Certains membres du conseil d’administration d’OpenAI avaient trouvé en Altman un opérateur incroyablement glissant. Par exemple, plus tôt cet automne, il avait confronté un membre, Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, pour avoir co-écrit un article qui apparemment critiquait OpenAI pour « attiser les flammes du battage médiatique sur l'IA ». Toner s'était défendue (même si elle s'est ensuite excusée auprès du conseil d'administration de ne pas avoir prévu comment le journal pourrait être perçu). Altman a commencé à contacter individuellement d'autres membres du conseil d'administration pour la remplacer. Lorsque ces membres ont comparé leurs notes sur les conversations, certains ont estimé qu’Altman les avait présentés à tort comme soutenant le retrait de Toner. « Il les montait les uns contre les autres en mentant sur ce que pensaient les autres », m’a dit la personne familière avec les discussions du conseil d’administration. « Des choses comme ça se produisaient depuis des années ». (Une personne proche du point de vue d’Altman a déclaré qu’il reconnaissait avoir été « brutal dans la manière dont il avait tenté de faire destituer un membre du conseil d’administration », mais qu’il n’avait pas tenté de manipuler le conseil d’administration.)

Altman était connu comme un combattant d’entreprise avisé. Cela avait bien servi OpenAI dans le passé : en 2018, il avait bloqué une offre impulsive d’Elon Musk, l’un des premiers membres du conseil d’administration, de reprendre l’organisation. La capacité d’Altman à contrôler l’information et à manipuler les perceptions – ouvertement et secrètement – avait incité les investisseurs en capital-risque à se faire concurrence en investissant dans diverses startups. Ses compétences tactiques étaient tellement redoutées que, lorsque quatre membres du conseil d’administration – Toner, D’Angelo, Sutskever et Tasha McCauley – ont commencé à discuter de son renvoi, ils étaient déterminés à garantir qu’il serait pris par surprise. « Il était clair que, dès que Sam le saurait, il ferait tout ce qu'il pouvait pour saper le conseil d'administration », a déclaré la personne proche de ces discussions.

Les membres mécontents du conseil d’administration ont estimé que la mission d’OpenAI les obligeait à être vigilants à l’égard de l’IA. devenant trop dangereux, et ils pensaient qu’ils ne pourraient pas accomplir cette tâche avec Altman en place. « La mission est multiforme : garantir que l’A.I. profite à toute l’humanité, mais personne ne peut le faire s’il ne peut pas détenir le PDG. responsable », a déclaré une autre personne au courant de la réflexion du conseil d’administration. Altman voyait les choses différemment. La personne familière avec son point de vue a déclaré que lui et le conseil d’administration s’étaient engagés dans « un débat de conseil d’administration tout à fait normal et sain », mais que certains membres du conseil d’administration n’étaient pas familiarisés avec les normes commerciales et étaient intimidés par leurs responsabilités. Cette personne a noté : « À chaque pas que nous nous rapprochons de l’A.G.I., tout le monde prend environ dix points de folie. »

Il est difficile de dire si les membres du conseil d’administration étaient plus terrifiés par les ordinateurs sensibles ou par le fait qu’Altman devienne un voyou. En tout cas, ils ont décidé de devenir eux-mêmes des voyous. Et ils ont ciblé Altman avec la foi erronée que Microsoft adhérerait à leur soulèvement.


Très vite, Microsoft a élaboré des stratégies

Plan A : stabiliser la situation en soutenant Murati en tant que PDG par intérim

Peu de temps après que Nadella ait appris le licenciement d'Altman et convoqué la vidéoconférence avec Scott et les autres dirigeants, Microsoft a commencé à exécuter le plan A : stabiliser la situation en soutenant Murati en tant que PDG par intérim, tout en tentant de comprendre pourquoi le conseil d’administration avait agi de manière si impulsive. Nadella avait approuvé la publication d'une déclaration soulignant que «*Microsoft reste engagé envers Mira et son équipe alors que nous introduisons cette prochaine ère de l'IA à nos clients », et a fait écho à ce sentiment sur ses comptes personnels X et LinkedIn. Il entretenait des contacts fréquents avec Murati, pour se tenir au courant de ce qu'elle apprenait du conseil d'administration.

La réponse était : pas grand-chose. La veille du licenciement d’Altman, le conseil d’administration avait informé Murati de sa décision et avait obtenu d’elle la promesse de garder le silence. Ils ont interprété son consentement comme signifiant qu’elle soutenait le licenciement, ou du moins qu’elle ne combattrait pas le conseil d’administration, et ils ont également supposé que d’autres employés s’aligneraient sur eux. Ils avaient tord. En interne, Murati et d’autres hauts dirigeants d’OpenAI ont exprimé leur mécontentement, et certains membres du personnel ont qualifié l’action du conseil d’administration de coup d’État. Les employés d'OpenAI ont envoyé des questions pointues aux membres du conseil d'administration, mais le conseil d'administration a à peine répondu. Deux personnes proches de la pensée du conseil d’administration affirment que les membres se sentaient tenus au silence par des contraintes de confidentialité. De plus, alors que l’éviction d’Altman devenait une nouvelle mondiale, les membres du conseil d’administration se sentaient dépassés et « disposaient d’une bande passante limitée pour interagir avec qui que ce soit, y compris Microsoft ».

Le lendemain du licenciement, le directeur des opérations d'OpenAI, Brad Lightcap, a envoyé une note à l'échelle de l'entreprise déclarant qu'il avait appris que « la décision du conseil d'administration n'a pas été prise en réponse à un malversation ou à quoi que ce soit lié à nos finances, à nos affaires, à notre sûreté ou à notre sécurité/pratiques de confidentialité ». Il a poursuivi en disant : « Il s'agissait d'une rupture de communication entre Sam et le conseil d'administration ». Mais chaque fois que quelqu’un demandait des exemples d’Altman qui n’était pas « toujours franc dans ses communications », comme le conseil d’administration s’en était initialement plaint, ses membres gardaient le silence, refusant même de citer la campagne d’Altman contre Toner.

Au sein de Microsoft, l’épisode entier semblait incroyablement stupide. À ce stade, OpenAI valait environ quatre-vingts milliards de dollars. L’un de ses dirigeants m’a dit : « À moins que l’objectif du conseil d’administration ne soit la destruction de l’ensemble de l’entreprise, ils semblaient inexplicablement déterminés à faire le pire choix possible à chaque fois qu’ils prenaient une décision. » Même si d’autres employés d’OpenAI, suivant l’exemple de Greg Brockman, ont publiquement démissionné, le conseil d’administration est resté silencieux.


Plan B : s'entretenir avec Murati pour voir s'il est possible de faire réintégrer Altman au poste de PDG

Le plan A était clairement un échec. Les dirigeants de Microsoft sont donc passés au plan B : Nadella a commencé à s’entretenir avec Murati pour voir s’il existait un moyen de réintégrer Altman au poste de PDG. Au milieu de ces conversations, la Coupe du monde de cricket se déroulait et Nadella – une fan de l’équipe indienne, qui était en finale contre l’Australie – a parfois brisé la tension avec des mises à jour sur la performance de Virat Kohli aux guichets. (Beaucoup de collègues de Nadella n’avaient aucune idée de ce dont il parlait.)

Le tollé suscité par l’éviction d’Altman s’est intensifié. Dans des tweets, la journaliste technique Kara Swisher a déclaré : « Cette idiotie chez @OpenAI est assez épique ». Nadella n’arrêtait pas de poser des questions : quel est le plan du conseil d’administration pour aller de l’avant ? Comment le conseil d’administration va-t-il regagner la confiance des salariés ? Mais, comme une version défectueuse de GPT, le forum n’a donné que des réponses insatisfaisantes. Les employés d’OpenAI ont menacé de se révolter. Murati et d'autres membres de la startup, avec le soutien de Microsoft, ont commencé à pousser tous les membres du conseil d'administration à démissionner. Finalement, certains d’entre eux ont accepté de partir à condition de trouver leurs remplaçants acceptables. Ils ont indiqué qu’ils pourraient même être ouverts au retour d’Altman, à condition qu’il ne soit pas PDG et n’obtienne pas de siège au conseil d’administration.

Plan C : inviter officiellement Altman à diriger un programme d'IA au sein de Microsoft

Le dimanche précédant Thanksgiving, tout le monde était épuisé. Kevin Scott a plaisanté avec ses collègues en disant qu'il hésitait à s'endormir, car il était certain de s'éveiller à encore plus de folie. Les journalistes surveillaient les bureaux d’OpenAI et la maison d’Altman. Le conseil d’administration d’OpenAI a demandé à Murati de se joindre à eux, seul, pour une conversation privée. Ils lui ont dit qu’ils avaient secrètement recruté un nouveau PDG et qu’ils avaient finalement trouvé quelqu’un prêt à accepter le poste.

Pour Murati, pour la plupart des employés d’OpenAI et pour beaucoup au sein de Microsoft, ce fut la goutte d’eau qui a fait déborder le vase. Le plan C a été lancé*: dimanche soir, Nadella a officiellement invité Altman et Brockman à diriger un nouveau programme d'IA au sein de Microsoft, avec autant de ressources et autant de liberté qu'ils le souhaitaient. Les deux ont accepté. Microsoft a commencé à préparer des bureaux pour les centaines d'employés d'OpenAI qui, selon eux, rejoindraient la division. Murati et ses collègues ont rédigé une lettre ouverte au conseil d'administration d'OpenAI : « Nous sommes incapables de travailler pour ou avec des personnes qui manquent de compétence, de jugement et de souci pour notre mission et nos employés. » Les auteurs de la lettre ont promis de démissionner et de « rejoindre la filiale Microsoft nouvellement annoncée » à moins que tous les membres actuels du conseil d’administration ne démissionnent et qu’Altman et Brockman ne soient réintégrés. En quelques heures, presque tous les employés d’OpenAI avaient signé la lettre. Scott a adressé à X : « À mes partenaires d'OpenAI : nous avons vu votre pétition et apprécions votre désir de rejoindre potentiellement Sam Altman au nouveau laboratoire de recherche en IA de Microsoft. Sachez que si nécessaire, vous occupez un rôle chez Microsoft qui correspond à votre rémunération et fait progresser notre mission collective ».

Le plan C et la menace de départs massifs chez OpenAI ont suffi à faire céder le conseil d’administration. Deux jours avant Thanksgiving, OpenAI a annoncé qu'Altman reviendrait en tant que PDG. Tous les membres du conseil d'administration, à l'exception de D'Angelo, démissionneraient et des personnalités plus établies, notamment Bret Taylor, ancien dirigeant de Facebook et président de Twitter, et Larry Summers, ancien secrétaire au Trésor et président de Harvard, seraient nommés. D’autres changements de gouvernance, et peut-être une réorganisation de la structure d’entreprise d’OpenAI, seraient envisagés. Les dirigeants d’OpenAI ont accepté une enquête indépendante sur ce qui s’était passé, y compris sur les actions passées d’Altman en tant que PDG.

Source : The New Yorker

Et vous ?

Quelle analyse faites-vous de ces nouveaux éléments ?
Sam Altman accusé de monter les membres du conseil les uns contre les autres, cela vous semble-t-il crédible ? Si oui, cela justifie-t-il la décision du conseil ?
Comment expliquer l'omerta du conseil lorsqu'il lui a été demandé des justifications sur cette décision aussi radicale qu'impulsive ?
Quelle lecture faites-vous des stratégies élaborées par Microsoft ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kmedghaith
Membre confirmé https://www.developpez.com
Le 30/04/2024 à 9:29
GPT-5 sera beaucoup plus intelligent que GPT-4 et GPT-6 sera beaucoup plus intelligent que GPT-5
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
1  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/04/2024 à 12:36
Citation Envoyé par kmedghaith Voir le message
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
Nos données.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/01/2024 à 7:40
Citation Envoyé par Mathis Lucas Voir le message
L'un des plus gros problèmes de l'absence de raisonnement est que cela rend les grands modèles de langage vulnérables aux hallucinations, aux biais systématiques et d'autres pièges. Cette lacune signifie que l'on ne peut pas faire complètement confiance à l'IA, car elle peut présenter des informations erronées comme étant vraies.
On ne peut faire complètement confiance à une seule source, qu'elle soit informatique, humaine ou journalistique, c'est pour ça qu'il faut recroiser les sources.
Espérer pouvoir se fier à 100% à une IA est illusoire, même si une tonne d'entreprises essayent de vous le vendre.
0  0 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 11/03/2024 à 18:34
Ça ne fait que confirmer la main mise de crosoft sur OAI.
0  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 29/04/2024 à 12:33
"L'Intelligence Artificielle (IA) ne fonctionnera probablement pas"
Pensez-vous que cet avis de Sam Altman est crédible ou pertinent ?

Mais pour lui, l'AI doit arriver à quel but ?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 30/04/2024 à 7:47
Citation Envoyé par Anthony Voir le message
Quel est votre avis sur le sujet ?
ChatGPT fournit de fausses informations sur les personnes, et OpenAI admet qu'elle n'est pas en mesure de les corriger
Cher M. Altman, ce n'est pas parce que vous ne comprenez de moins en moins ce que pense votre IA qu'elle devient de plus en plus intelligente.

Par contre il est assez facile d'affirmer ce qu'il affirme :
La version X diminue les hallucinations
La version X+1 répond mieux à certaines énigmes
La version X+2 évalue la qualité de sa propre réponse

Les piste d'amélioration sont nombreuses s'attaquer à chacune d'elle permet de vanter une révolution à chaque version.
0  0 
Avatar de ParseCoder
Membre averti https://www.developpez.com
Le 01/05/2024 à 8:17
En tout cas ça ne coûte rien de le dire (et surtout ça peut rapporter gros).
0  0 
Avatar de Marc Louis-Seize
Candidat au Club https://www.developpez.com
Le 02/05/2024 à 4:08
Si ils ont créés des IA dans le but de faire des cyborgs intelligent capable de ressentir de la douleur de la tristesse ou de la dépression ou de l'ennui ou une peine d'amour ils sont vraiment cruels et sans cœurs .!
0  0