
Sam Altman a été licencié à la surprise générale le 17 novembre. Bien qu'il ait été réintégré depuis dans son rôle de PDG d'OpenAI, les raisons à l'origine de son départ restent encore un mystère, ce qui donne lieu à de nombreuses spéculations. Elon Musk, qui a cofondé OpenAI en 2015, n'a pas manqué l'occasion de donner son point de vue sur la question. Interrogé sur ce qui avait pu se passer pendant cette période tumultueuse au sein d'OpenAI, Musk a déclaré qu'il n'a pas de scoop sur le drame impliquant le départ soudain d'Altman et son retour tout aussi rapide, mais qu'il est particulièrement préoccupé par ce que cela signifiait pour l'avenir de l'IA.
L'interview de Musk est intervenu dans le cadre de l'événement DealBook Summit du New York Times le 29 novembre. Lors de l'interview, le journaliste Andrew Sorkin a demandé à Musk son avis sur ce qui a poussé son ami personnel et scientifique en chef d'OpenAI, Ilya Sutskever, à évincer Altman de la direction de la société. Musk a déclaré : « je pense que nous devrions nous préoccuper de cette question parce que je pense qu'Ilya a en fait une forte conscience morale. Il se préoccupe vraiment de ce qui est juste. Ainsi, si Ilya était suffisamment convaincu pour vouloir renvoyer Sam, je pense que le monde devrait savoir quelle était cette raison ».
Sutskever était l'un des membres du conseil d'administration qui avait initialement voté en faveur de l'éviction d'Altman. Il a toutefois semblé faire marche arrière par la suite. Musk a défendu Sutskever après que ce dernier été critiqué pour son implication dans l'éviction d'Altman, et il a déclaré à CNBC en début d'année qu'il était à l'origine de l'embauche de Sutskever par OpenAI. D'ailleurs, lors de l'interview, Musk a confié que son amitié avec Larry Page, cofondateur de Google, s'est rompue après qu'il a embauché Sutskever au sein d'OpenAI. Répondant à une question, Musk a déclaré : « c'est exact. Larry a refusé d'être mon ami après que j'ai recruté Ilya ».
Musk a déclaré lors de l'interview qu'il n'a pas parlé avec Sutskever de l'incident et que ce dernier n'a souhaité se confier à personne : « je lui ai tendu la main, mais il ne veut parler à personne ». Il a aussi ajouté qu'il a mené sa propre enquête sur ce qui s'est passé chez OpenAI pendant cette brève période, mais qu'il n'avait obtenu aucune réponse à ses préoccupations : « j'ai parlé à beaucoup de gens. Je n'ai trouvé personne qui sache pourquoi. Et vous ? De deux choses l'une : soit il s'agit d'une affaire sérieuse et nous devrions savoir de quoi il s'agit, soit il ne s'agit pas d'une affaire sérieuse et le conseil d'administration devrait alors démissionner ».
Interrogé sur Altman, Musk a laissé entendre que ce dernier a peut-être été corrompu par tout le pouvoir que sa position lui confère, qui l'a détourné de mission initiale. « J'ai des sentiments mitigés à l'égard de Sam. L'anneau de pouvoir peut corrompre, et il a l'anneau de pouvoir », a déclaré l'homme d'affaires, évoquant "Le Seigneur des anneaux". « Donc je ne sais pas. Je pense que j'aimerais savoir pourquoi Ilya s'est senti obligé de renvoyer Sam. Cela semble être une chose sérieuse. Je ne pense pas que ce soit anodin. Et je crains qu'il y ait un élément dangereux de l'IA qu'ils ont créé ». Musk pense qu'OpenAI a fait une "découverte dangereuse".
Cette mystérieuse découverte d'OpenAI a fait énormément de vagues pendant le tumulte chez OpenAI. La rumeur parle en effet d'une hypothétique IA qui serait dotée d'une logique proche de celle d'un être humain et serait capable de résoudre des problèmes mathématiques de base. Le modèle d'IA, appelé Q* (Q-Star), aurait suscité des inquiétudes au sein de la startup, ce qui a conduit au chaos observé dernièrement. Selon la rumeur, l'équipe à l'origine de la découverte, avec à sa tête Sutskever, aurait averti qu'OpenAI devait prendre le temps d'étudier les dangers potentiels du modèle avant de le commercialiser, mais qu'Altman n'était pas de cet avis.
Mais commentant les rumeurs sur le mystérieux projet Q* d'OpenAI, Yann LeCun, lauréat du prix Turing 2018 et responsable de l'IA chez Meta, a déclaré que tout cela est absurde. « Veuillez ignorer le déluge d'absurdités au sujet du projet Q*. L'un des principaux défis pour améliorer la fiabilité du LLM est de remplacer la prédiction autorégressive des jetons par la planification. À peu près tous les meilleurs laboratoires (FAIR, DeepMind, OpenAI, etc.) travaillent sur cela et certains ont déjà publié des idées et des résultats », a déclaré le chercheur français en IA. Le projet Q* serait une tentative visant à apprendre aux modèles d'IA à planifier.
LeCun a ajouté : « il est probable que Q* soit une tentative de planification de la part d'OpenAI . Ils ont pratiquement embauché Noam Brown (de Libratus/poker et de Cicero/Diplomacy) pour travailler sur ce sujet. [Note : je plaide pour une architecture d'apprentissage profond capable de planifier depuis 2016] ». Les chercheurs d'OpenAI auraient décrit le projet Q* comme ce qui se rapproche le plus d'une superintelligence artificielle à l'heure actuelle, mais de nombreux chercheurs indépendants ont remis en cause cette théorie. Selon certains, le projet Q* pourrait simplement faire référence à l'apprentissage Q ou à l'algorithme Q*.
Sophia Kalanovska, cofondatrice de la startup d'IA Tromero, pense que Q* combine les techniques d'apprentissage profond qui sous-tendent ChatGPT avec des règles programmées par les humains. « Je pense que cela est symboliquement très important. D'un point de vue pratique, je ne pense pas que cela va mettre fin au monde. Je pense que la raison pour laquelle les gens croient que Q* va conduire à l'AGI est que, d'après ce que nous avons entendu jusqu'à présent, il semble qu'il combinera les deux côtés du cerveau et sera capable de connaître certaines choses par expérience, tout en étant capable de raisonner sur des faits », a déclaré Kalanovska.
Lors de l'interview, Musk a critiqué une nouvelle fois la direction que prend OpenAI et a suggéré que l'entreprise devrait changer son nom afin de refléter ses nouvelles ambitions. Il a déclaré que la raison d'être d'OpenAI était de créer un contrepoids à Google et DeepMind, qui disposaient à l'époque de deux tiers de tous les talents en matière d'IA et d'un budget et d'une capacité de calcul pratiquement infinis. « Il n'y avait pas de contrepoids. C'était un monde unipolaire », a déclaré Musk. Selon lui, Google ne se souciait pas réellement de la sécurité de l'IA et il a milité pour la création d'OpenAI spécifiquement pour travailler...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.