Sam Altman a été licencié à la surprise générale le 17 novembre. Bien qu'il ait été réintégré depuis dans son rôle de PDG d'OpenAI, les raisons à l'origine de son départ restent encore un mystère, ce qui donne lieu à de nombreuses spéculations. Elon Musk, qui a cofondé OpenAI en 2015, n'a pas manqué l'occasion de donner son point de vue sur la question. Interrogé sur ce qui avait pu se passer pendant cette période tumultueuse au sein d'OpenAI, Musk a déclaré qu'il n'a pas de scoop sur le drame impliquant le départ soudain d'Altman et son retour tout aussi rapide, mais qu'il est particulièrement préoccupé par ce que cela signifiait pour l'avenir de l'IA.
L'interview de Musk est intervenu dans le cadre de l'événement DealBook Summit du New York Times le 29 novembre. Lors de l'interview, le journaliste Andrew Sorkin a demandé à Musk son avis sur ce qui a poussé son ami personnel et scientifique en chef d'OpenAI, Ilya Sutskever, à évincer Altman de la direction de la société. Musk a déclaré : « je pense que nous devrions nous préoccuper de cette question parce que je pense qu'Ilya a en fait une forte conscience morale. Il se préoccupe vraiment de ce qui est juste. Ainsi, si Ilya était suffisamment convaincu pour vouloir renvoyer Sam, je pense que le monde devrait savoir quelle était cette raison ».
Sutskever était l'un des membres du conseil d'administration qui avait initialement voté en faveur de l'éviction d'Altman. Il a toutefois semblé faire marche arrière par la suite. Musk a défendu Sutskever après que ce dernier été critiqué pour son implication dans l'éviction d'Altman, et il a déclaré à CNBC en début d'année qu'il était à l'origine de l'embauche de Sutskever par OpenAI. D'ailleurs, lors de l'interview, Musk a confié que son amitié avec Larry Page, cofondateur de Google, s'est rompue après qu'il a embauché Sutskever au sein d'OpenAI. Répondant à une question, Musk a déclaré : « c'est exact. Larry a refusé d'être mon ami après que j'ai recruté Ilya ».
Musk a déclaré lors de l'interview qu'il n'a pas parlé avec Sutskever de l'incident et que ce dernier n'a souhaité se confier à personne : « je lui ai tendu la main, mais il ne veut parler à personne ». Il a aussi ajouté qu'il a mené sa propre enquête sur ce qui s'est passé chez OpenAI pendant cette brève période, mais qu'il n'avait obtenu aucune réponse à ses préoccupations : « j'ai parlé à beaucoup de gens. Je n'ai trouvé personne qui sache pourquoi. Et vous ? De deux choses l'une : soit il s'agit d'une affaire sérieuse et nous devrions savoir de quoi il s'agit, soit il ne s'agit pas d'une affaire sérieuse et le conseil d'administration devrait alors démissionner ».
Interrogé sur Altman, Musk a laissé entendre que ce dernier a peut-être été corrompu par tout le pouvoir que sa position lui confère, qui l'a détourné de mission initiale. « J'ai des sentiments mitigés à l'égard de Sam. L'anneau de pouvoir peut corrompre, et il a l'anneau de pouvoir », a déclaré l'homme d'affaires, évoquant "Le Seigneur des anneaux". « Donc je ne sais pas. Je pense que j'aimerais savoir pourquoi Ilya s'est senti obligé de renvoyer Sam. Cela semble être une chose sérieuse. Je ne pense pas que ce soit anodin. Et je crains qu'il y ait un élément dangereux de l'IA qu'ils ont créé ». Musk pense qu'OpenAI a fait une "découverte dangereuse".
Cette mystérieuse découverte d'OpenAI a fait énormément de vagues pendant le tumulte chez OpenAI. La rumeur parle en effet d'une hypothétique IA qui serait dotée d'une logique proche de celle d'un être humain et serait capable de résoudre des problèmes mathématiques de base. Le modèle d'IA, appelé Q* (Q-Star), aurait suscité des inquiétudes au sein de la startup, ce qui a conduit au chaos observé dernièrement. Selon la rumeur, l'équipe à l'origine de la découverte, avec à sa tête Sutskever, aurait averti qu'OpenAI devait prendre le temps d'étudier les dangers potentiels du modèle avant de le commercialiser, mais qu'Altman n'était pas de cet avis.
Mais commentant les rumeurs sur le mystérieux projet Q* d'OpenAI, Yann LeCun, lauréat du prix Turing 2018 et responsable de l'IA chez Meta, a déclaré que tout cela est absurde. « Veuillez ignorer le déluge d'absurdités au sujet du projet Q*. L'un des principaux défis pour améliorer la fiabilité du LLM est de remplacer la prédiction autorégressive des jetons par la planification. À peu près tous les meilleurs laboratoires (FAIR, DeepMind, OpenAI, etc.) travaillent sur cela et certains ont déjà publié des idées et des résultats », a déclaré le chercheur français en IA. Le projet Q* serait une tentative visant à apprendre aux modèles d'IA à planifier.
LeCun a ajouté : « il est probable que Q* soit une tentative de planification de la part d'OpenAI . Ils ont pratiquement embauché Noam Brown (de Libratus/poker et de Cicero/Diplomacy) pour travailler sur ce sujet. [Note : je plaide pour une architecture d'apprentissage profond capable de planifier depuis 2016] ». Les chercheurs d'OpenAI auraient décrit le projet Q* comme ce qui se rapproche le plus d'une superintelligence artificielle à l'heure actuelle, mais de nombreux chercheurs indépendants ont remis en cause cette théorie. Selon certains, le projet Q* pourrait simplement faire référence à l'apprentissage Q ou à l'algorithme Q*.
Sophia Kalanovska, cofondatrice de la startup d'IA Tromero, pense que Q* combine les techniques d'apprentissage profond qui sous-tendent ChatGPT avec des règles programmées par les humains. « Je pense que cela est symboliquement très important. D'un point de vue pratique, je ne pense pas que cela va mettre fin au monde. Je pense que la raison pour laquelle les gens croient que Q* va conduire à l'AGI est que, d'après ce que nous avons entendu jusqu'à présent, il semble qu'il combinera les deux côtés du cerveau et sera capable de connaître certaines choses par expérience, tout en étant capable de raisonner sur des faits », a déclaré Kalanovska.
Lors de l'interview, Musk a critiqué une nouvelle fois la direction que prend OpenAI et a suggéré que l'entreprise devrait changer son nom afin de refléter ses nouvelles ambitions. Il a déclaré que la raison d'être d'OpenAI était de créer un contrepoids à Google et DeepMind, qui disposaient à l'époque de deux tiers de tous les talents en matière d'IA et d'un budget et d'une capacité de calcul pratiquement infinis. « Il n'y avait pas de contrepoids. C'était un monde unipolaire », a déclaré Musk. Selon lui, Google ne se souciait pas réellement de la sécurité de l'IA et il a milité pour la création d'OpenAI spécifiquement pour travailler sur ces aspects essentiels.
« C'est ainsi qu'OpenAI a été lancé. Il devait être un logiciel libre. Je l'ai appelé OpenAI en référence à l'open source. Mais il s'agit en réalité d'une source fermée, super fermée. Il devrait être renommé "super closed source for maximum profit AI". Parce que c'est ce qu'il est en réalité. OpenAI est passé d'une fondation open source, un 5123, à une société à but lucratif de 90 milliards de dollars avec des sources fermées. Je ne sais donc pas comment aller d'ici à là », a déclaré Musk. Par le passé, Musk a averti que les entreprises devaient être prudentes avec les technologies impliquant l'IA, car elles pourraient représenter "un danger pour le public et l'humanité".
OpenAI a été fondé par Sam Altman, Elon Musk, Ilya Sutskever, Greg Brockman et d'autres investisseurs. La société a été initialement créée en tant qu'organisation à but non lucratif pour servir l'humanité et offrir des avantages potentiels à la vie moderne. Mais à peine trois ans plus tard, Musk a annoncé sa démission de l'entreprise en 2018 en raison d'un désaccord sur sa direction. Depuis, Musk est devenu l'un des critiques les plus acerbes d'OpenAI et affirme que la startup est devenue de facto une filiale de Microsoft. (Microsoft a investi des milliards de dollars dans OpenAI depuis 2019.) Musk a lancé récemment xAI, une entreprise rivale d'OpenAI.
Interrogé sur l'état d'avancement de ses propres efforts en matière d'IA par rapport à ceux d'OpenAI, de Google et des autres, Musk a répondu : « je suis un peu dans l'embarras parce que je pense que l'IA pourrait changer le monde de manière significative depuis que je suis à l'université, il y a 30 ans. Si je n'ai pas construit l'IA dès le départ, c'est parce que je ne savais pas quel côté de l'épée à double tranchant serait le plus tranchant, le bon ou le mauvais ». xAI a publié le mois dernier Grok, son premier modèle d'IA. Grok tente de s'éloigner de ses concurrents en adoptant "un côté rebelle et audacieux", mais l'initiative ne fait pas l'unanimité.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la théorie de Musk sur le licenciement d'Altman ?
Que pensez-vous de la proposition de Musk selon laquelle OpenAI devrait changer de nom ?
Selon vous, que signifie les récents événements chez OpenAI pour l'avenir de l'IA ?
Voir aussi
Projet Q* : les informations sur la mystérieuse percée en matière d'IA des chercheurs d'OpenAI ne seraient qu'un "déluge d'absurdités", selon des critiques tels que le pionnier de l'IA Yann LeCun
Des chercheurs d'OpenAI auraient envoyé au conseil d'administration sortant une lettre l'avertissant d'une découverte majeure en matière d'IA et de la menace que cela représente pour l'humanité
OpenAI estime que la superintelligence artificielle AGI pourrait arriver dans les 10 prochaines années, mais demande de l'aide pour en contrôler les risques en annonçant un programme de subventions