OpenAI a pris tout le monde de court en annonçant vendredi l'éviction de Sam Altman du poste de PDG et son renvoi de l'entreprise. Mais si le conseil d'administration d'OpenAI pensait pouvoir tourner facilement la page Altman, il s'est malheureusement trompé, car la situation a rapidement pris une tournure chaotique. La majorité des employés et les investisseurs ont pris la défense d'Altman, exigeant son retour ainsi que celui du cofondateur Greg Brockman. Vendredi, Brockman a jugé bon de démissionner, après avoir été démis de ses fonctions du président du conseil d'administration. Les deux hommes ont été réintégrés depuis dans la société.
L'exil d'Altman a duré en tout quatre jours, une courte période durant laquelle le conseil d'administration n'a pas pu fournir de façon concrète les raisons exactes qui l'ont poussé à limoger Altman. Parmi les théories les plus intéressantes qui ont émergé à la suite de l'éviction d'Altman, il y en a une qui a particulièrement retenu l'attention : Altman et le scientifique en chef d'OpenAI, Ilya Sutskever, seraient en désaccord sur la rapidité de la commercialisation de l'IA générative et sur la manière de réduire les éventuels préjudices pour le public. Sutskever, qui aurait joué le rôle de meneur dans l'éviction d'Altman, aurait exploité ce désaccord à son avantage.
OpenAI n'a ni commenté ni démenti cette rumeur. Mais de nouvelles informations tendent à corroborer cette théorie et des sources au sein du personnel d'OpenAI ont rapporté que de nombreux chercheurs d'OpenAI sont profondément préoccupés par une percée récente dans le domaine de l'IA. Et un collectif de chercheurs d'OpenAI aurait même envoyé une lettre au conseil d'administration pour lui faire part de leurs inquiétudes concernant cette découverte. Citant des sources internes à OpenAI, Reuters rapporte que les chercheurs ont expliqué dans leur lettre que la découverte permet de créer de grands modèles de langage (LLM) encore plus puissants.
Cependant, ils auraient précisé que cette découverte augmente les risques et les menaces pour l'humanité. En somme, la percée technique, menée par Sutskever, a suscité des inquiétudes auprès de nombreux chercheurs qui pensent que l'entreprise n'a pas mis en place les garde-fous nécessaires pour commercialiser des modèles d'IA aussi avancés. Cette information, si elle est confirmée, démontre le schisme sur l'avenir du développement de l'IA et la facture entre le business et la science. Les chercheurs auteurs de la lettre semblent préoccupés par une IA qui se rapproche d'une "superintelligence" ou encore d'une intelligence générale artificielle (AGI).
Par contre, Altman et d'autres dirigeants d'OpenAI seraient beaucoup plus enthousiastes à commercialiser la technologie. Les sources ont cité la lettre comme l'un des facteurs d'une longue liste de griefs formulés par le conseil d'administration qui ont conduit au licenciement d'Altman, parmi lesquels des préoccupations concernant la commercialisation des avancées avant d'en comprendre les conséquences. D'après l'une des sources, Mira Murati, directrice de la technologie, a parlé du projet, appelé Q* (prononcé Q-Star), aux employés mercredi et a déclaré qu'une lettre avait été envoyée au conseil d'administration avant les événements de ce week-end.
Après l'apparition des rapports sur l'existence de ce projet, un porte-parole d'OpenAI a déclaré que Murati avait dit aux employés ce que les médias rapportaient, mais qu'elle n'avait pas commenté l'exactitude de l'information selon laquelle le projet aurait un lien avec l'éviction surprise d'Altman. Jusqu'à présent, l'entreprise s'en tient strictement à l'information initiale communiquée au public sur ce renvoi : « son départ fait suite à un processus d’examen délibéré par le conseil d’administration, qui a conclu qu’il n’était pas toujours franc dans ses communications avec le conseil d’administration, ce qui a empêché ce dernier d’exercer ses responsabilités ».
« Le conseil d’administration n’a plus confiance en sa capacité à continuer à diriger OpenAI », a écrit la société dans un billet de blogue. OpenAI définit l'AGI comme un système autonome qui surpasse les humains dans la plupart des tâches à valeur économique. Selon la rumeur, en s'appuyant sur de vastes ressources informatiques, le nouveau modèle a été capable de résoudre certains problèmes mathématiques. « Bien qu'il ne soit capable de faire des mathématiques qu'au niveau des élèves de l'école primaire, le fait d'avoir réussi ces tests a rendu les chercheurs très optimistes quant au succès futur de Q* », a déclaré une source interne à l'entreprise.
Les chercheurs en IA considèrent les mathématiques comme l'une des frontières du développement de l'IA générative. Actuellement, l'IA générative est efficace pour l'écriture et la traduction des langues en prédisant statistiquement le mot suivant, et les réponses à une même question peuvent varier considérablement. Cependant, développer la capacité de faire des mathématiques - où il n'y a qu'une seule bonne réponse - implique que l'IA acquiert des capacités de raisonnement plus grandes, proches de l'intelligence humaine. Selon les chercheurs en IA, cela pourrait s'appliquer à de nouvelles recherches scientifiques, par exemple.
Contrairement à une calculatrice qui ne peut résoudre qu'un nombre limité d'opérations, l'IA est capable de généraliser, apprendre et comprendre. Selon les sources, dans leur lettre au conseil d'administration, les chercheurs ont souligné les prouesses de l'IA et les dangers potentiels. Les informaticiens débattent depuis longtemps du danger que représentent les machines hautement intelligentes, par exemple si elles peuvent décider que la destruction de l'humanité est dans leur intérêt. Mais cette vision dystopique de l'avenir de l'IA est rejetée par un certain nombre d'autres chercheurs en IA, comme le responsable de l'IA chez Meta, Yann LeCun.
Lors d'un sommet de dirigeants mondiaux à San Francisco la semaine dernière, Altman a laissé entendre qu'il pensait que des avancées majeures étaient en vue. « Quatre fois maintenant dans l'histoire d'OpenAI, la fois la plus récente étant juste au cours des deux dernières semaines, j'ai eu l'occasion d'être dans la salle, lorsque nous repoussons en quelque sorte le voile de l'ignorance et la frontière de la découverte, et avoir l'occasion de le faire est l'honneur professionnel d'une vie », a-t-il déclaré lors du sommet de la Coopération économique Asie-Pacifique. Un jour plus tard, le conseil d'administration sortant d'OpenAI a licencié Altman.
Mercredi, Altman a été réintégré en tant que PDG d'OpenAI. Le conseil d’administration sera remanié, éliminant plusieurs membres qui s’étaient opposés à Altman, dont le scientifique en chef Ilya Sutskever. Adam D’Angelo, PDG de Quora, est le seul membre de l'ancien conseil d'administration à avoir conservé sa place après le remaniement. Microsoft dispose désormais d'une place au sein du conseil d'administration. Plus tôt dans la journée, OpenAI avait annoncé avoir trouvé un accord de principe pour le retour d'Altman.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des allégations sur les dissensions au sein d'OpenAI ?
Pensez-vous que la turbulence a définitivement pris fin avec le retour d'Altman ?
Va-t-on assister à un exode des talents d'OpenAI, y compris parmi les cadres de l'entreprise ?
Présentez-vous des départs parmi les auteurs de lettre envoyée à l'ancien conseil d'administration ?
Selon vous, le désaccord entre Altman et le scientifique en chef va-t-il pousser ce dernier à démissionner ?
À quoi pourrait ressembler l'avenir d'OpenAI ? Selon vous, OpenAI a-t-il réellement réalisé une percée en matière d'IA ?
Voir aussi
Sam Altman est réintégré en tant que directeur général d'OpenAI avec un nouveau conseil d'administration qui pourrait compter jusqu'à neuf membres avec un siège pour Microsoft
Les employés d'OpenAI auraient reçu deux explications au sujet du licenciement de Sam Altman, ce qui les a rendus davantage furieux et 95 % d'entre eux menacent de démissionner
Microsoft propose aux employés d'OpenAI de le rejoindre tout en continuant à bénéficier de la même rémunération, mais une sortie de crise se précise chez OpenAI avec le retour de Sam Altman