Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.
J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Les meilleures entreprises sont celles dont les visions sont dirigées et mises en œuvre par leurs entrepreneurs fondateurs, ceux qui mettent tout en jeu pour remettre en question le statu quo - des fondateurs comme Sam Altman - qui affrontent le risque de front et qui sont concentrés - donc totalement - pour rendre le monde meilleur. Les choses peuvent mal tourner et des abus se produisent, mais les avantages des bons fondateurs dépassent de loin les risques des mauvais. [...] Une vision globale qui change le monde est axiomatiquement risquée. Cela peut même faire peur. Mais c’est le seul levier grâce auquel la condition humaine s’est améliorée au cours de l’histoire. Et nous pourrions détruire ce potentiel avec des discours universitaires sur un risque existentiel insensé, à mon avis.
Il y a beaucoup d’avantages à la hausse, avec une infime chance de risque existentiel. À cet égard, cela ressemble davantage à ce que la machine à vapeur et le moteur à combustion interne ont fait à la puissance musculaire humaine. Avant les moteurs, nous avions des dispositifs passifs : leviers et poulies. Nous mangions de la nourriture pour obtenir de l’énergie et la dépensions pour notre fonction. Nous pourrions désormais alimenter ces moteurs en pétrole, en vapeur et en charbon, réduisant ainsi l’effort humain et augmentant la production pour améliorer la condition humaine. L’IA est l’analogue intellectuel de ces moteurs. Son pouvoir multiplicatif en matière d’expertise et de connaissances signifie que nous pouvons dépasser les limites actuelles de la capacité du cerveau humain, apportant ainsi de grands avantages à la race humaine.
Je comprends que l’IA n’est pas sans risques. Mais l’humanité est confrontée à de nombreux petits risques. Ils vont de risques infimes comme une IA sensible détruisant le monde ou un astéroïde frappant la Terre, à des risques moyens comme une guerre biologique mondiale de la part de nos adversaires, à des risques importants et imminents comme une Chine technologiquement supérieure, des cyberguerres et une IA persuasive manipulant les utilisateurs dans une démocratie, probablement à commencer par les élections américaines de 2024.
Faire du développement une priorité sans prendre le temps d'analyser les risques associés
OpenAI a lancé ChatGPT il y a moins d'un an et depuis lors, l'IA est la tendance technologique numéro un. Cela est particulièrement vrai chez Microsoft, qui a investi pour la première fois dans OpenAI en 2019 et a continué à investir des fonds dans l'entreprise tout en utilisant ChatGPT et d'autres services pour ses propres produits d'IA comme Bing Chat, Copilot, etc.
Mais Sam Altman ne veut pas en rester là; celui qui était alors PDG d'OpenAI cherchait un soutien financier supplémentaire auprès du principal investisseur Microsoft dans sa quête visant à créer des outils technologiques « superintelligents » qui seraient aussi intelligents que les humains. « La vision est de créer une intelligence artificielle générale (AGI), de trouver comment la rendre sûre et d'en déterminer les avantages », a déclaré Altman au Financial Times, soulignant qu'il passait également du temps à rechercher « comment construire une superintelligence » et les moyens de construire augmenter la puissance de calcul pour y parvenir.
Altman considère l'AGI comme la prochaine phase d'évolution de l'entreprise en plein essor.
« À l'heure actuelle, les gens [disent] 'vous avez ce laboratoire de recherche, vous avez cette API [logiciel], vous avez le partenariat avec Microsoft, vous avez ce truc ChatGPT, maintenant il y a une boutique GPT.' Mais ce ne sont pas vraiment nos produits », a déclaré Altman au quotidien. « Ce sont des canaux vers notre seul produit, qui est l’intelligence, l’intelligence magique dans le ciel. Je pense que c’est de cela que nous parlons ».
Quelques jours après ces propos, il a été licencié.
Des médias américains ont rapporté que le conseil d'OpenAI reprochait à Sam Altman de faire du développement de produits une priorité sans prendre pour autant le temps d'analyser les risques associés. D'ailleurs, la tribune de Vinod Khosla parle des « minuscules risques ont été amplifiés par des esprits amateurs de science-fiction et des journalistes à sensation ».
Pour Brendan Dolan-Gavitt, professeur d'informatique à l'université NYU Tandon, cette thèse des médias américains est validée par l'arrivée d'Emmett Shear, désigné pour succéder à Sam Altman. « Il a souvent exprimé sa préoccupation quant à la sûreté de l'intelligence artificielle », rappelle l'universitaire.
Les critiques des avancées en matière d'IA générative, en plus de parler de potentielles pertes massives d'emploi, évoquent également le côté militaire avec des armes létales autonomes qui pourraient s'attaquer aux humains, en plus des campagnes de désinformations à grande échelle lancées en s'appuyant sur ces bots IA. Dans sa tribune, Vinod Khosla estime « qu'il est temps de s'intéresser aux risques de l'IA, mais pas au point de ralentir le progrès et de nous priver de ses avantages ».
Les limites de la structure actuelle d'OpenAI
La branche à but lucratif est soumise à la mission à but non lucratif d'OpenAI. Sur la page « Notre structure » figurant sur le site Web d’OpenAI, nous avons des détails sur la structure complexe à but non lucratif/à profit plafonné d’OpenAI. Selon la page, la filiale à but lucratif d’OpenAI est « entièrement contrôlée » par l’organisation à but non lucratif OpenAI (qui est enregistrée dans le Delaware). Alors que la filiale à but lucratif OpenAI Global, LLC – qui semble avoir quitté la société en commandite OpenAI LP, précédemment annoncée en 2019, environ trois ans après la création de l'organisation à but non lucratif OpenAI originale – est « autorisée à réaliser et à distribuer des bénéfices, » elle est soumise à la mission de l'association.
Toutefois, les évènements qui se sont déroulés ce weekend on été révélateurs des limites de cette structure qui place sous le contrôle d'une holding à but non lucratif une société sur laquelle des acteurs financiers ont misé des milliards de dollars.
Les administrateurs « avaient perdu le sens des réalités », a estimé Carolina Milanesi, du cabinet Creative Strategies. « Comment pouvez-vous rester une société à but non lucratif une fois que vous acceptez ces montants de gens comme Microsoft? »
Il faut dire qu'OpenAI a déjà conclu un accord « pluriannuel » de 10 milliards de dollars avec Microsoft plus tôt cette année, développant un partenariat qui a débuté en 2019 avec seulement 1 milliard de dollars de la grande entreprise technologique.
Une absence de stratégie cohérente
Pour Timothy B. Lee, la structure n'est pas la seule à être en cause ici :
Les gens attribuent le chaos de ce week-end à l'étrange structure d'entreprise d'OpenAI, mais je pense que le principal problème est que leur stratégie est incohérente depuis longtemps. Il n’a jamais été clair dans quelle mesure l’accélération du développement de l’IA nous sauverait d’une IA dangereuse.
Il explique par exemple : « Je veux dire, en théorie, je peux imaginer une organisation qui promeut la sécurité en formant des modèles frontaliers, en les étudiant et en ne les publiant pas. Mais ce n’est pas ce que fait OpenAI et il est difficile de voir comment vous le financeriez ».People are blaming OpenAI's odd corporate structure for this weekend's chaos, but I think the main issue is that their strategy has been incoherent for a long time. It was never clear how accelerating AI development would save us from dangerous AI. https://t.co/UIQwZKSa9L pic.twitter.com/QuWpxyBziH
— Timothy B. Lee (@binarybits) November 21, 2023
Et un autre de déclarer : « La structure d'entreprise d'OpenAI peut être un facteur, mais le véritable problème réside dans l'absence de stratégie cohérente. Accélérer simplement le développement de l’IA ne garantira pas notre sécurité contre les IA dangereuses. Nous avons besoin d’une approche globale qui aborde tous les aspects de l’impact de l’IA ».
« Microsoft vient de réaliser l'acquisition la moins chère jamais vue »
Sans en avoir été à l'origine, Microsoft peut récupérer Sam Altman ainsi que plusieurs de ses collaborateurs ayant choisi de quitter OpenAI. Le directeur général Satya Nadella s'est engagé à embaucher tous les salariés d'Openai qui choisiraient de démissionner, faute de départ des administrateurs.
Les employés ont d'ailleurs clairement fait savoir qu'ils sont motivés à le faire dans une lettre ouverte demandant la réinstallation de Sam Altman comme PDG de l'entreprise :
L'équipe de direction a suggéré que la voie la plus stabilisatrice - celle qui servirait le mieux notre mission, notre entreprise, nos parties prenantes, nos employés et le public - serait que vous démissionniez et que vous mettiez en place un conseil d'administration qualifié qui pourrait conduire l'entreprise vers la stabilité. . Les dirigeants ont travaillé avec vous 24 heures sur 24 pour trouver un résultat mutuellement acceptable. Pourtant, deux jours après votre décision initiale, vous avez de nouveau remplacé la PDG par intérim Mira Murati, au mépris des meilleurs intérêts de l'entreprise. Vous avez également informé l'équipe de direction que permettre la destruction de l'entreprise « serait conforme à la mission ».
Vos actions ont montré clairement que vous êtes incapable de superviser OpenAI. Nous sommes incapables de travailler pour ou avec des personnes qui manquent de compétence, de jugement et de souci pour notre mission et nos employés. Nous, soussignés, pouvons choisir de démissionner d'OpenAI et de rejoindre la filiale Microsoft nouvellement annoncée, dirigée par Sam Altman et Greg Brockman. Microsoft nous a assuré qu'il y aurait des postes pour tous les employés d'OpenAI dans cette nouvelle filiale si nous choisissions d'y adhérer. Nous prendrons cette mesure de manière imminente, à moins que tous les membres actuels du conseil d'administration ne démissionnent et que le conseil nomme deux nouveaux administrateurs indépendants principaux, tels que Bret Taylor et Will Hurd, et réintègre Sam Altman et Greg Brockman.
Vos actions ont montré clairement que vous êtes incapable de superviser OpenAI. Nous sommes incapables de travailler pour ou avec des personnes qui manquent de compétence, de jugement et de souci pour notre mission et nos employés. Nous, soussignés, pouvons choisir de démissionner d'OpenAI et de rejoindre la filiale Microsoft nouvellement annoncée, dirigée par Sam Altman et Greg Brockman. Microsoft nous a assuré qu'il y aurait des postes pour tous les employés d'OpenAI dans cette nouvelle filiale si nous choisissions d'y adhérer. Nous prendrons cette mesure de manière imminente, à moins que tous les membres actuels du conseil d'administration ne démissionnent et que le conseil nomme deux nouveaux administrateurs indépendants principaux, tels que Bret Taylor et Will Hurd, et réintègre Sam Altman et Greg Brockman.
Altman est considéré comme la principale voix dans le domaine de l'IA depuis que son entreprise a lancé ChatGPT en novembre 2022. Le chatbot génératif d'IA a compté plus de 100 millions d'utilisateurs en moins d'un an. Après avoir publié ChatGPT l'année dernière, Altman a été mis sous les projecteurs. Il a été l’un des plus ardents partisans de l’intelligence artificielle, mais il a également lancé des appels en faveur d’une réglementation et averti que la technologie comporte des risques dans la mesure où elle remodèle la société. Il a témoigné devant le Congrès américain en mai sur la forme que devrait prendre la législation sur l’IA.
Cette aura lui aurait ouvert le chemin vers d’autres investisseurs ou partenaires dans le domaine du cloud. L'intelligence artificielle générative a besoin d'une puissance de calcul massive et spécialisée pour fonctionner, en particulier pour des millions de clients. Google ou Amazon essaieraient très certainement de lui proposer des offres qu'il ne pourrait refuser.
Microsoft qui était autrefois un partenaire proche se positionne désormais en rival. Les employés d’OpenAI envisagent de quitter le navire en signe de protestation pour rejoindre Sam Altman, notamment au sein de Microsoft.
Source : tribune Vinod Khosla
Et vous ?
Quelle est votre opinion sur la critique de Vinod Khosla à l’égard de OpenAI ? Est-elle fondée ou injuste ?
Pensez-vous que OpenAI a trahi sa vision originale en devenant une entreprise à but lucratif plafonné ? Quels sont les avantages et les inconvénients de ce changement de statut ?
Quel devrait être le rôle du conseil d’administration d'OpenAI dans la définition de la stratégie et de la gouvernance de l’entreprise ?