OpenAI, l’organisation à but non lucratif fondée par des personnalités du monde de la technologie comme Elon Musk et Peter Thiel, avait pour objectif de créer une intelligence artificielle bénéfique pour l’humanité, sans être limitée par les intérêts commerciaux ou politiques. Toutefois, Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.
J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Les meilleures entreprises sont celles dont les visions sont dirigées et mises en œuvre par leurs entrepreneurs fondateurs, ceux qui mettent tout en jeu pour remettre en question le statu quo - des fondateurs comme Sam Altman - qui affrontent le risque de front et qui sont concentrés - donc totalement - pour rendre le monde meilleur. Les choses peuvent mal tourner et des abus se produisent, mais les avantages des bons fondateurs dépassent de loin les risques des mauvais. [...] Une vision globale qui change le monde est axiomatiquement risquée. Cela peut même faire peur. Mais c’est le seul levier grâce auquel la condition humaine s’est améliorée au cours de l’histoire. Et nous pourrions détruire ce potentiel avec des discours universitaires sur un risque existentiel insensé, à mon avis.
Il y a beaucoup d’avantages à la hausse, avec une infime chance de risque existentiel. À cet égard, cela ressemble davantage à ce que la machine à vapeur et le moteur à combustion interne ont fait à la puissance musculaire humaine. Avant les moteurs, nous avions des dispositifs passifs : leviers et poulies. Nous mangions de la nourriture pour obtenir de l’énergie et la dépensions pour notre fonction. Nous pourrions désormais alimenter ces moteurs en pétrole, en vapeur et en charbon, réduisant ainsi l’effort humain et augmentant la production pour améliorer la condition humaine. L’IA est l’analogue intellectuel de ces moteurs. Son pouvoir multiplicatif en matière d’expertise et de connaissances signifie que nous pouvons dépasser les limites actuelles de la capacité du cerveau humain, apportant ainsi de grands avantages à la race humaine.
Je comprends que l’IA n’est pas sans risques. Mais l’humanité est confrontée à de nombreux petits risques. Ils vont de risques infimes comme une IA sensible détruisant le monde ou un astéroïde frappant la Terre, à des risques moyens comme une guerre biologique mondiale de la part de nos adversaires, à des risques importants et imminents comme une Chine technologiquement supérieure, des cyberguerres et une IA persuasive manipulant les utilisateurs dans une démocratie, probablement à commencer par les élections américaines de 2024.
Faire du développement une priorité sans prendre le temps d'analyser les risques associés
OpenAI a lancé ChatGPT il y a moins d'un an et depuis lors, l'IA est la tendance technologique numéro un. Cela est particulièrement vrai chez Microsoft, qui a investi pour la première fois dans OpenAI en 2019 et a continué à investir des fonds dans l'entreprise tout en utilisant ChatGPT et d'autres services pour ses propres produits d'IA comme Bing Chat, Copilot, etc.
Mais Sam Altman ne veut pas en rester là; celui qui était alors PDG d'OpenAI cherchait un soutien financier supplémentaire auprès du principal investisseur Microsoft dans sa quête visant à créer des outils technologiques « superintelligents » qui seraient aussi intelligents que les humains. « La vision est de créer une intelligence artificielle générale (AGI), de trouver comment la rendre sûre et d'en déterminer les avantages », a déclaré Altman au Financial Times, soulignant qu'il passait également du temps à rechercher « comment construire une superintelligence » et les moyens de construire augmenter la puissance de calcul pour y parvenir.
Altman considère l'AGI comme la prochaine phase d'évolution de l'entreprise en plein essor.
« À l'heure actuelle, les gens [disent] 'vous avez ce laboratoire de recherche, vous avez cette API [logiciel], vous avez le partenariat avec Microsoft, vous avez ce truc ChatGPT, maintenant il y a une boutique GPT.' Mais ce ne sont pas vraiment nos produits », a déclaré Altman au quotidien. « Ce sont des canaux vers notre seul produit, qui est l’intelligence, l’intelligence magique dans le ciel. Je pense que c’est de cela que nous parlons ».
Quelques jours après ces propos, il a été licencié.
Des médias américains ont rapporté que le conseil d'OpenAI reprochait à Sam Altman de faire du développement de produits une priorité sans prendre pour autant le temps d'analyser les risques associés. D'ailleurs, la tribune de Vinod Khosla parle des « minuscules risques ont été amplifiés par des esprits amateurs de science-fiction et des journalistes à sensation ».
Pour...[/logiciel][/disent]
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
