L'ancien conseil d'administration d'OpenAI a été impuissant face à Sam Altman
Limogé par le conseil d'administration d'OpenAI le 17 novembre, Sam Altman a retrouvé son ancien poste de PDG le 22 novembre. Son exil en dehors d'OpenAI n'aura duré que cinq jours et l'on ne sait toujours pas ce qui a conduit à ce chaos momentané. L'annonce de l'éviction d'Altman indique qu'il n'a pas toujours été franc dans ses communications avec le conseil d'administration, ce qui a empêché ce dernier d'exercer ses responsabilités. Toutefois, son retour a précipité le départ de la plupart des membres de l'ancien conseil d'administration, à l'exception d'Adam D’Angelo, PDG de Quora, qui conserve sa place au sein du nouveau conseil d'administration.
i love openai, and everything i’ve done over the past few days has been in service of keeping this team and its mission together. when i decided to join msft on sun evening, it was clear that was the best path for me and the team. with the new board and w satya’s support, i’m…
— Sam Altman (@sama) November 22, 2023
Selon les observateurs, cela montre que le conseil d'administration n'avait pas de réel pouvoir sur Altman comme il le prétendait. En fait, le conseil d'administration de l'entreprise est indépendant des opérations d'OpenAI et lié à une déclaration de mission selon laquelle "OpenAI développe l'IA pour le bien de l'humanité". OpenAI lui-même est structuré d'une manière peu conventionnelle : il y a en effet une organisation à but non lucratif originelle (OpenAI inc.) qui est la société mère d'une filiale à but lucratif plafonné (OpenAI LP). Pour Altman, cette structure presque inédite constitue un coupe-feu contre le développement irresponsable d'une IA puissante.
Lors de son tour du monde cette année, Altman a déclaré à qui voulait l'entendre que le conseil d'administration pouvait le contrôler, ainsi que d'autres dirigeants de la société. S'il commençait à agir dangereusement ou contre les intérêts de l'humanité, le conseil d'administration pourrait l'éjecter. « Le conseil d'administration peut me renvoyer, je pense que c'est important », a déclaré Altman à Bloomberg en juin. Cependant, à la lumière des récents événements, plusieurs analystes affirment qu'il ne s'agissait que d'une farce et que son retour presque "triomphale" montre qu'Altman était là pour protéger les intérêts d'un certain nombre d'investisseurs.
« Il s'est avéré qu'ils ne pouvaient pas le renvoyer, et c'était une mauvaise chose », déclare Toby Ord, chercheur principal en philosophie à l'université d'Oxford, et l'une des principales figures qui pensent que l'IA pourrait représenter une menace existentielle pour l'humanité. Le nouveau conseil d'administration est composé de figures de l'establishment de la Tech et de l'ancien secrétaire américain au Trésor Larry Summers. Les deux seules femmes, qui sont associées au mouvement appelé "altruisme efficace" ont été retirées du conseil d'administration. Cette décision a cristallisé les clivages existants sur la manière dont l'avenir de l'IA devrait être gouverné.
« Dans une certaine mesure, il s'agissait d'une trajectoire de collision qui avait été fixée depuis longtemps. S'il est vrai que le conseil d'administration à but non lucratif d'OpenAI était impuissant à affecter réellement son comportement, alors je pense que le fait d'exposer qu'il était impuissant était probablement une bonne chose », a déclaré Ord, qui est également considéré comme le cofondateur du mouvement de l'altruisme efficace, dont certaines parties sont devenues obsédées par l'extrémité la plus sombre du spectre des risques liés à l'IA. Par exemple, selon des sources internes à la société, c'est le cas du scientifique en chef OpenAI Ilya Sutskever.
Altman protègerait les intérêts des investisseurs et s'inquiète peu de la sécurité
Quelques heures après leur licenciement, Altman et Greg Brockman, membre de l'ancien conseil d'administration, ont trouvé refuge chez Microsoft. L'entreprise a déclaré qu'elle créerait un nouveau laboratoire d'IA qui accueillera les deux hommes. En outre, Microsoft s'est engagé à embaucher le reste de l'équipe d'OpenAI. On ne saura jamais s'il s'agissait ou non d'un projet sérieux. Cela dit, il a conféré à Altman un énorme pouvoir lors de la négociation de son retour à OpenAI. Le 20 novembre, alors que ces négociations étaient en cours, Satya Nadella, PDG de Microsoft, a déclaré : « indépendamment de l'endroit où Sam se trouve, il travaille avec Microsoft ».
We are encouraged by the changes to the OpenAI board. We believe this is a first essential step on a path to more stable, well-informed, and effective governance. Sam, Greg, and I have talked and agreed they have a key role to play along with the OAI leadership team in ensuring… https://t.co/djO6Fuz6t9
— Satya Nadella (@satyanadella) November 22, 2023
Le manque de communication d'OpenAI au milieu de tout ce chaos a donné lieu à de nombreuses rumeurs. Selon l'une d'entre elles, Altman consacrait trop de temps à des projets secondaires ou qu'il était trop déférent à l'égard de Microsoft. Il a également nourri des théories du complot, comme l'idée que l'OpenAI avait créée l'AGI et que le conseil d'administration avait appuyé sur le bouton d'arrêt sur les conseils de Sutskever. Mais David Shrier, professeur d'IA et d'innovation à l'Imperial College Business School de Londres, a balayé ces spéculations d'un revers de la main en déclarant : « ce que je sais avec certitude, c'est que nous n'avons pas l'AGI ».
Shrier, pense plutôt que les récents événements sont dus à l'échec de la gouvernance et de la structure d'OpenAI. « Je sais avec certitude qu'il y a eu un échec colossal de la gouvernance », a-t-il déclaré. Mais Shrier explique que cet échec n'est pas seulement dû à la tension évidente entre la mission à but non lucratif du conseil et les désirs commerciaux des dirigeants et des investisseurs impliqués dans l'unité à but lucratif de l'OpenAI. Il s'agit aussi d'une fonction de la croissance rapide de la taille et de l'influence de l'entreprise, qui reflète le poids croissant de l'industrie de l'IA. ChatGPT a mis six semaines pour passer de zéro à 100 millions d'utilisateurs.
Shrier a rappelé qu'il a fallu sept ans au World Wide Web pour atteindre une telle échelle. Selon le professeur, malgré le pouvoir suprême du conseil d'administration sur le papier, la complexité et l'ampleur des opérations d'OpenAI ont clairement dépassé la capacité des administrateurs à superviser l'entreprise. Il a déclaré que cette situation est alarmante, compte tenu de la nécessité réelle et immédiate de maîtriser les risques liés à la technologie de l'IA. Shrier estime qu'OpenAI a abandonné son but initial. « Des entreprises comme OpenAI ne sont clairement pas des projets scientifiques. Il ne s'agit même plus de simples sociétés de logiciels », note-t-il.
« Il s'agit d'entreprises mondiales qui ont un impact significatif sur notre façon de penser, de voter, de diriger nos entreprises et d'interagir avec les autres. Il est donc nécessaire de mettre en place un mécanisme de gouvernance mature et solide », a ajouté le professeur. Mais Shrier n'est pas le seul à penser qu'OpenAI n'est plus un projet scientifique. Dans une analyse publiée la semaine dernière, Dave Lee, chroniqueur technologique américain de Bloomberg Opinion, a déclaré : « Altman aura du mal à convaincre le monde qu'il travaille pour le bien de l'humanité et non pour celui des actionnaires. Il n'est qu'un dirigeant de Big Tech parmi d'autres ».
L'industrie de l'IA passe de l'idéalisme académique au pragmatisme commercial
Selon les observateurs, le nouveau conseil d'administration est plus susceptible d'orienter OpenAI davantage vers les affaires. L'on ignore la position de certains de ces membres sur la sécurité de l'IA, mais les analystes estiment qu'ils pourraient être beaucoup plus enclins à aider Altman à créer un empire dans le domaine de l'IA. La vision du personnel pourrait également être tournée dans ce sens. Une source interne rapporte que le personnel d'OpenAI, qui s'est soudé par traumatisme pendant les bouleversements, est susceptible de devenir encore plus loyal envers Altman et, peut-être, plus enclin à poursuivre sa vision sur la commercialisation de l'IA.
Le travail sur le modèle le plus puissant l'entreprise, GPT-5, qui a semblé ralentir pendant quelques mois, va probablement se poursuivre à plein régime. En outre, bien qu'Altman ait présenté sa réintégration comme "un retour aux affaires habituelles", les analystes s'attendent maintenant à ce qu'OpenAI se comporte plus directement comme l'avatar de Microsoft dans sa bataille avec Google et d'autres géants. OpenAI et Amazon ont également augmenté leurs investissements dans l'IA, et Amazon a injecté 1,25 milliard de dollars dans Anthropic, lancé par d'anciens employés d'OpenAI en 2021. Anthropic a publié récemment son nouveau modèle d'IA Claude 2.
« En effet, il ne s'agit plus seulement d'une course entre ces laboratoires d'IA, où les personnes qui les ont fondés, je pense, se soucient réellement de l'importance historique de ce qu'ils pourraient faire. Il s'agit désormais d'une course entre certaines des plus grandes entreprises du monde, ce qui a changé la donne. Je pense que cet aspect est assez dangereux », note Ord. Satya Nadella a exprimé sa frustration après le chaos. « Je vais être très, très clair : nous ne reviendrons jamais dans une situation où nous sommes surpris comme cela. Plus jamais, c'est terminé », a-t-il déclaré. Selon les analystes, cela démontre l'importance d'OpenAI pour Microsoft.
Maintenant, avec son siège au conseil d'administration, Microsoft est en mesure de contrôler ce qui se passe au sein d'OpenAI et s'assurer que ses investissements sont rentabilisés. OpenAI est le leader incontesté de la course à l'IA. Une enquête menée par l'entreprise Retool a révélé que 80 % des développeurs de logiciels déclaraient utiliser les modèles d'OpenAI plus souvent que les modèles d'IA des concurrents tels qu'Anthropic et Meta. Dans le même temps, le chatbot d'IA ChatGPT reçoit 60 % du trafic des 50 premiers sites Web pour ce type d'IA générative. En octobre, le laboratoire d'IA réalisait un chiffre d'affaires annualisé de 1,3 milliard de dollars.
Toutefois, selon les analystes, même si OpenAI progresse plus rapidement sous une nouvelle direction, il devra faire face à une concurrence accrue. Un investisseur en capital-risque spécialisé dans l'IA a comparé ce moment à l'implosion de la Silicon Valley Bank, qui a appris à de nombreuses startups à ne pas mettre tous leurs œufs dans le même panier. Selon un rapport de The Information, alors que le drame d'Altman se déroulait, plus de 100 clients d'OpenAI ont contacté Anthropic. Certains ont fait appel à Cohere, une autre startup, et à l'unité "cloud" de Google, qui a investi dans Anthropic. Selon les analystes, cela annonce une grande rivalité dans le secteur.
OpenAI pourrait dicter la marche à suivre dans le secteur dans les années à venir
Altman a demandé à plusieurs reprises aux gouvernements de réglementer lui et son entreprise pour le bien de l'humanité. Lors d'une audition devant le Congrès des États-Unis en mai, il a déclaré : « ma pire crainte est que nous - le domaine, la technologie, l'industrie - causions des dommages importants au monde ». Il a déclaré qu'il souhaite collaborer avec les gouvernements pour éviter cela. Mais cette déclaration est incompatible avec la stratégie de la société : la fermeture de ses modèles d'IA, les milliards d'investissements reçus de la part de Microsoft, qui est un géant à la recherche de profits, et le développement d'une IA toujours plus puissante.
« Je pense que l'idée de dire "s'il vous plaît, réglementez-nous, car si vous ne le faites pas, nous détruirons le monde et l'humanité" est totalement absurde. Je pense que cela détourne totalement l'attention des risques réels qui existent en matière de déplacement d'emplois, de discrimination, de transparence et de responsabilité », déclare Rayid Ghani, professeur à l'université Carnegie Mellon, qui fait des recherches sur l'IA et les politiques publiques. OpenAI a qualifié de temporaire la nouvelle composition du conseil d'administration mercredi dernier et s'attend à ce que d'autres noms viennent s'ajouter à la liste actuellement exclusivement masculine.
Selon les analystes, dans sa forme finale, le conseil supervisant Altman sera probablement plus axé sur la technologie et sa commercialisation que sur la sécurité. Ils prédisent également que le conseil et la société sont tous deux susceptibles de se rapprocher de Microsoft, qui pourrait encore injecter des milliards dans le laboratoire d'IA. Par ailleurs, l'échec très médiatisé de la structure de gouvernance d'OpenAI est susceptible d'amplifier les appels à une réglementation. D'après les partisans d'un régime réglementaire plus solide pour l'IA, les récents événements montrent que l'autorégulation est insuffisante pour protéger l'humanité contre la technologie.
Toutefois, la semaine dernière, la France, l'Allemagne et l'Italie ont annoncé qu'elles soutiennent "l'autorégulation obligatoire par le biais de codes de conduite pour les modèles de fondation. Ces gouvernements suggèrent que l'on peut faire confiance à OpenAI et à d'autres pour garder leur propre technologie sous contrôle. Sur X, le PDG de startup française Mistral AI, Arthur Mensch, s'est prononcé en faveur de l'idée qu'il puisse noter ses propres devoirs. « Nous ne réglementons pas le langage C parce qu'il peut être utilisé pour développer des logiciels malveillants », a-t-il déclaré. Cette décision a suscité un grand débat dans la communauté de l'IA.
Certains eurodéputés se sont prononcés contre l'idée de l'autorégulation. « Ce qui s'est passé avec ce drame autour de Sam Altman nous montre que nous ne pouvons pas compter sur les PDG visionnaires ou les ambassadeurs de ces entreprises, mais que nous avons besoin d'une réglementation. Ces événements nous montrent que la gouvernance de ces entreprises n'est ni fiable ni prévisible », a déclaré Brando Benifei, l'un des deux députés du Parlement européen qui mènent les négociations sur la loi historique de l'Union européenne sur l'IA. (L'Allemagne abrite également l'un des principaux fabricants européens de modèles d'IA : Aleph Alpha.)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la structure de gouvernance d'OpenAI ?
S'est-elle avérée un échec à la lumière des récents événements ?
Que pensez-vous des rumeurs entourant le récent chaos chez OpenAI ?
OpenAI est-il toujours un projet scientifique ou un géant de la Tech comme Microsoft ?
Que pensez-vous des déclarations du PDG de Microsoft en réaction au licenciement de Sa Altman ?
Que pensez-vous des rumeurs selon lesquelles Microsoft a une emprise démesurée sur OpenAI ?
Que pensez-vous des appels à une réglementation stricte de l'IA ? Quid de l'autorégulation ?
Quelle est votre prédiction sur l'avenir d'OpenAI ? Sera-t-il plus tourné vers la réalisation de profits ?
Que pensez-vous de la sécurité de l'IA ? Quelle place occupera-t-elle désormais dans le développement de l'IA ?
Voir aussi
Des chercheurs d'OpenAI auraient envoyé au conseil d'administration sortant une lettre l'avertissant d'une découverte majeure en matière d'IA et de la menace que cela représente pour l'humanité
Sam Altman est réintégré en tant que directeur général d'OpenAI avec un nouveau conseil d'administration qui pourrait compter jusqu'à neuf membres avec un siège pour Microsoft
« Sam Altman aura du mal à convaincre le monde qu'il travaille pour le bien de l'humanité et non pour celui des actionnaires. Il n'est qu'un dirigeant de Big Tech parmi d'autres », selon un critique