
Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.
J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Les meilleures entreprises sont celles dont les visions sont dirigées et mises en œuvre par leurs entrepreneurs fondateurs, ceux qui mettent tout en jeu pour remettre en question le statu quo - des fondateurs comme Sam Altman - qui affrontent le risque de front et qui sont concentrés - donc totalement - pour rendre le monde meilleur. Les choses peuvent mal tourner et des abus se produisent, mais les avantages des bons fondateurs dépassent de loin les risques des mauvais. [...] Une vision globale qui change le monde est axiomatiquement risquée. Cela peut même faire peur. Mais c’est le seul levier grâce auquel la condition humaine s’est améliorée au cours de l’histoire. Et nous pourrions détruire ce potentiel avec des discours universitaires sur un risque existentiel insensé, à mon avis.
Il y a beaucoup d’avantages à la hausse, avec une infime chance de risque existentiel. À cet égard, cela ressemble davantage à ce que la machine à vapeur et le moteur à combustion interne ont fait à la puissance musculaire humaine. Avant les moteurs, nous avions des dispositifs passifs : leviers et poulies. Nous mangions de la nourriture pour obtenir de l’énergie et la dépensions pour notre fonction. Nous pourrions désormais alimenter ces moteurs en pétrole, en vapeur et en charbon, réduisant ainsi l’effort humain et augmentant la production pour améliorer la condition humaine. L’IA est l’analogue intellectuel de ces moteurs. Son pouvoir multiplicatif en matière d’expertise et de connaissances signifie que nous pouvons dépasser les limites actuelles de la capacité du cerveau humain, apportant ainsi de grands avantages à la race humaine.
Je comprends que l’IA n’est pas sans risques. Mais l’humanité est confrontée à de nombreux petits risques. Ils vont de risques infimes comme une IA sensible détruisant le monde ou un astéroïde frappant la Terre, à des risques moyens comme une guerre biologique mondiale de la part de nos adversaires, à des risques importants et imminents comme une Chine technologiquement supérieure, des cyberguerres et une IA persuasive manipulant les utilisateurs dans une démocratie, probablement à commencer par les élections américaines de 2024.
Faire du développement une priorité sans prendre le temps d'analyser les risques associés
OpenAI a lancé ChatGPT il y a moins d'un an et depuis lors, l'IA est la tendance technologique numéro un. Cela est particulièrement vrai chez Microsoft, qui a investi pour la première fois dans OpenAI en 2019 et a continué à investir des fonds dans l'entreprise tout en utilisant ChatGPT et d'autres services pour ses propres produits d'IA comme Bing Chat, Copilot, etc.
Mais Sam Altman ne veut pas en rester là; celui qui était alors PDG d'OpenAI cherchait un soutien financier supplémentaire auprès du principal investisseur Microsoft dans sa quête visant à créer des outils technologiques « superintelligents » qui seraient aussi intelligents que les humains. « La vision est de créer une intelligence artificielle générale (AGI), de trouver comment la rendre sûre et d'en déterminer les avantages », a déclaré Altman au Financial Times, soulignant qu'il passait également du temps à rechercher « comment construire une superintelligence » et les moyens de construire augmenter la puissance de calcul pour y parvenir.
Altman considère l'AGI comme la prochaine phase d'évolution de l'entreprise en plein essor.
« À l'heure actuelle, les gens [disent] 'vous avez ce laboratoire de recherche, vous avez cette API [logiciel], vous avez le partenariat avec Microsoft, vous avez ce truc ChatGPT, maintenant il y a une boutique GPT.' Mais ce ne sont pas vraiment nos produits », a déclaré Altman au quotidien. « Ce sont des canaux vers notre seul produit, qui est l’intelligence, l’intelligence magique dans le ciel. Je pense que c’est de cela que nous parlons ».
Quelques jours après ces propos, il a été licencié.
Des médias américains ont rapporté que le conseil d'OpenAI reprochait à Sam Altman de faire du développement de produits une priorité sans prendre pour autant le temps d'analyser les risques associés. D'ailleurs, la tribune de Vinod Khosla parle des « minuscules risques ont été amplifiés par des esprits amateurs de science-fiction et des journalistes à sensation ».
Pour Brendan Dolan-Gavitt, professeur d'informatique à l'université NYU Tandon, cette thèse des médias américains est validée par l'arrivée d'Emmett Shear, désigné pour succéder à Sam Altman. « Il a souvent exprimé sa préoccupation quant à la sûreté de l'intelligence artificielle », rappelle l'universitaire.
Les critiques des avancées en matière d'IA générative, en plus de parler de potentielles pertes massives d'emploi, évoquent également le côté militaire avec des armes létales autonomes qui pourraient s'attaquer aux humains, en plus des campagnes de désinformations à grande échelle lancées en s'appuyant sur ces bots IA. Dans sa tribune, Vinod Khosla estime « qu'il est temps de s'intéresser aux risques de l'IA, mais pas au point de ralentir le progrès et de nous priver de ses avantages ».
Les limites de la structure actuelle d'OpenAI
La branche à but lucratif est soumise à la mission à but non lucratif d'OpenAI. Sur la page « Notre structure » figurant sur le site Web d’OpenAI, nous avons des détails sur la structure complexe à but non lucratif/à profit plafonné d’OpenAI. Selon la page, la filiale à but lucratif d’OpenAI est « entièrement contrôlée » par l’organisation à but non lucratif OpenAI (qui est enregistrée dans le Delaware). Alors que la filiale à but lucratif OpenAI Global, LLC – qui semble avoir quitté la société en commandite OpenAI LP, précédemment annoncée en 2019, environ trois ans après la création de l'organisation à but non lucratif OpenAI originale – est « autorisée à réaliser et à distribuer des bénéfices, » elle est soumise à la mission de l'association.
Toutefois, les évènements qui se sont déroulés ce weekend on été révélateurs des limites de cette structure qui place sous le contrôle d'une holding à but non lucratif une société sur laquelle des acteurs financiers ont misé des milliards de dollars.
Les administrateurs « avaient perdu le sens des réalités », a estimé Carolina Milanesi, du cabinet Creative Strategies. « Comment pouvez-vous rester une société à but non lucratif une fois que vous acceptez ces montants de gens comme Microsoft? »
Il faut dire qu'OpenAI a déjà conclu un accord « pluriannuel » de 10 milliards de dollars avec Microsoft plus tôt cette année, développant un partenariat qui a débuté en 2019 avec seulement 1 milliard de dollars de la grande entreprise technologique.
Une absence de stratégie cohérente
Pour Timothy B. Lee, la structure n'est pas la seule à être en cause ici :
Les gens attribuent le chaos de ce week-end à l'étrange structure d'entreprise d'OpenAI, mais je pense que le principal problème est que leur stratégie est incohérente depuis longtemps. Il n’a jamais été clair dans quelle mesure l’accélération du développement de l’IA nous sauverait d’une IA dangereuse.
Il explique par exemple : « Je veux dire, en théorie, je peux imaginer une organisation qui promeut la sécurité en formant des modèles frontaliers, en les étudiant et en ne les publiant pas. Mais ce n’est pas ce que fait OpenAI et il est difficile de voir comment vous le financeriez ».
Et un autre de déclarer : « La structure d'entreprise d'OpenAI peut être un facteur, mais le véritable problème réside dans l'absence de stratégie cohérente. Accélérer simplement le développement de l’IA ne garantira pas notre sécurité contre les IA dangereuses. Nous avons besoin d’une approche globale qui aborde tous les aspects de l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.