L'IAG est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.
OpenAI considère que l’IAG est une technologie potentiellement révolutionnaire, mais aussi très risquée, qui nécessite une gouvernance et une supervision rigoureuses. C’est pourquoi OpenAI a mis en place un conseil d’administration composé de six membres, qui a le pouvoir de décider quand l’organisation a atteint l’IAG (en se basant sur des critères objectifs et mesurables) et comment elle doit la gérer. Le conseil d’administration a la responsabilité de définir la vision, la stratégie et les principes d’OpenAI, ainsi que d’approuver les projets, les budgets et les embauches.
Selon la structure d’OpenAI, l’IAG est exclue des licences de propriété intellectuelle et des autres termes commerciaux avec Microsoft, qui ne s’appliquent qu’à la technologie pré-IAG.
La branche à but lucratif est soumise à la mission à but non lucratif d'OpenAI
L'information a été incluse dans un fil de discussion sur X ce week-end par Logan Kilpatrick, Developer Relations pour le compte d'OpenAI. Kilpatrick répondait à un commentaire du président de Microsoft, Brad Smith, qui, lors d'un récent panel avec le scientifique en chef de Meta, Yann LeCun, a tenté de présenter OpenAI comme étant plus fiable en raison de son statut « à but non lucratif » (même si le Wall Street Journal a récemment rapporté qu'OpenAI recherche une nouvelle valorisation pouvant atteindre 90 milliards de dollars dans le cadre d'une vente d'actions existantes).
Smith a déclaré : « Meta appartient aux actionnaires. OpenAI appartient à une organisation à but non lucratif. En quoi auriez-vous le plus confiance ? Obtenir votre technologie auprès d’une entreprise à but non lucratif ou à but lucratif entièrement contrôlée par un seul être humain*?*»
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">"Meta is owned by shareholders. OpenAI is owned by a non-profit. Which would you have more confidence in? Getting your technology from a non-profit or a for profit company that is entirely controlled by one human being" -- Brad Smith, Microsoft <br><br>... absolutely ridiculous <a href="https://t.co/ubpblmdut5">pic.twitter.com/ubpblmdut5</a></p>— martin_casado (@martin_casado) <a href="https://twitter.com/martin_casado/status/1723112508234539270?ref_src=twsrc%5Etfw">November 10, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Dans son fil de discussion, Kilpatrick a cité la page « Notre structure » sur le site Web d’OpenAI, qui offre des détails sur la structure complexe à but non lucratif/à profit plafonné d’OpenAI. Selon la page, la filiale à but lucratif d’OpenAI est « entièrement contrôlée » par l’organisation à but non lucratif OpenAI (qui est enregistrée dans le Delaware). Alors que la filiale à but lucratif OpenAI Global, LLC – qui semble avoir quitté la société en commandite OpenAI LP, précédemment annoncée en 2019, environ trois ans après la création de l'organisation à but non lucratif OpenAI originale – est « autorisée à réaliser et à distribuer des bénéfices, » elle est soumise à la mission de l'association.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">If you are skeptical of <a href="https://twitter.com/OpenAI?ref_src=twsrc%5Etfw">@OpenAI</a>’s non-profit / capped profit structure, please consider reading this page which goes into the detail. <br><br>I see so many people confused about how the structure works, share it with a skeptic! <a href="https://t.co/Apo5vamsIX">https://t.co/Apo5vamsIX</a></p>— Logan.GPT (@OfficialLoganK) <a href="https://twitter.com/OfficialLoganK/status/1723383548428591312?ref_src=twsrc%5Etfw">November 11, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Il semble certainement qu'une fois qu'OpenAI aura atteint sa mission déclarée d'atteindre l'IAG, Microsoft sera hors du coup et ce même si lors de l'OpenAI Dev Day de la semaine dernière, le PDG d'OpenAI, Sam Altman, a déclaré au PDG de Microsoft, Satya Nadella, que « je pense que nous avons le meilleur partenariat dans le domaine de la technologie… Je suis ravi que nous puissions construire l'IAG ensemble ».
Et dans une nouvelle interview avec Altman dans le Financial Times, Altman a déclaré que le partenariat OpenAI/Microsoft « fonctionnait très bien » et qu'il espérait « récolter beaucoup plus au fil du temps ». Et lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ». « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'IAG... les dépenses de formation sont tout simplement énormes », a-t-il ajouté.
Dès le début, selon les détails de la structure d’OpenAI, Microsoft « a accepté notre offre d’actions plafonnée et notre demande de laisser les technologies et la gouvernance IAG à l’organisation à but non lucratif et au reste de l’humanité ».
Le conseil d'administration d'OpenAI
Un porte-parole d’OpenAI a déclaré que « la mission d’OpenAI est de créer une IAG sûre et bénéfique pour tous. Notre conseil d'administration dirige l'entreprise et consulte divers points de vue d'experts externes et de parties prenantes pour l'aider à éclairer sa réflexion et ses décisions. Nous nommons et nommons les membres du conseil d’administration en fonction de leurs compétences, de leur expérience et de leur point de vue sur la technologie, la politique et la sécurité de l’IA.
Actuellement, le conseil d'administration à but non lucratif d'OpenAI est composé du président et président Greg Brockman, du scientifique en chef Ilya Sutskever et du PDG Sam Altman, ainsi que des non-employés Adam D'Angelo, Tasha McCauley et Helen Toner.
D'Angelo, PDG de Quora, ainsi que l'entrepreneur technologique McCauley et Honer, directeur de la stratégie du Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, ont tous été liés au mouvement de l'altruisme efficace – qui a été critiqué. plus tôt cette année pour ses liens avec Sam Bankman-Fried et FTX, ainsi que pour sa vision « dangereuse » de la sécurité de l'IA. Et OpenAI entretient depuis longtemps ses propres liens avec EA : par exemple, en mars 2017, OpenAI a reçu une subvention de 30 millions de dollars d'Open Philanthropy, financée par Effective Altruists. Et Jan Leike, qui dirige l’équipe de superalignement d’OpenAI, se serait identifié au mouvement EA.
Le porte-parole d'OpenAI a déclaré « qu'aucun des membres de notre conseil d'administration n'est un altruiste efficace », ajoutant que « les membres non salariés du conseil d'administration ne sont pas des altruistes efficaces ; leurs interactions avec la communauté EA sont axées sur des sujets liés à la sécurité de l’IA ou pour offrir le point de vue d’une personne non étroitement impliquée dans le groupe ».
La prise de décision du conseil d’administration en matière d’IAG est « inhabituelle »
Suzy Fulton, qui propose des services juridiques externalisés aux startups et aux entreprises émergentes du secteur technologique, a déclaré que même si dans de nombreuses circonstances, il serait « inhabituel » qu'un conseil d'administration prenne cette décision sur l'IAG, Le conseil d’administration à but non lucratif d’OpenAI a son devoir fiduciaire de soutenir sa mission de fournir « une IAG sûre et largement bénéfique ».
« Ils croient que le bénéficiaire du conseil d’administration à but non lucratif est l’humanité, alors que le conseil d’administration à but lucratif sert ses investisseurs », a-t-elle expliqué. « Une autre garantie qu'ils tentent d'instaurer est d'avoir un conseil d'administration majoritairement indépendant, où la majorité des membres n'ont pas de participation dans Open AI ».
Était-ce la bonne façon de mettre en place une structure d’entité et un conseil d’administration pour prendre cette décision cruciale*? « Nous ne connaîtrons peut-être pas la réponse jusqu'à ce que leur conseil d'administration la prenne », a déclaré Fulton.
Anthony Casey, professeur à la faculté de droit de l'Université de Chicago, convient que le fait que le conseil d'administration décide de quelque chose d'aussi spécifique sur le plan opérationnel que l'IAG est « inhabituel », mais il ne pense pas qu'il y ait d'obstacle juridique.
« Cela devrait être une bonne chose d'identifier spécifiquement certaines questions qui doivent être soulevées au niveau du Conseil d'administration », a-t-il déclaré. « En effet, si une question est suffisamment importante, le droit des sociétés impose généralement aux administrateurs l’obligation d’exercer une surveillance sur cette question », en particulier sur les « questions critiques pour la mission ».
C'est peut-être cette question d'indépendance qui a poussé le PDG d'OpenAI à ne pas céder le contrôle d'OpenAI à une puissante entreprise technologique.
« Lorsque nous développerons la superintelligence, nous prendrons probablement des décisions que les investisseurs des marchés publics verraient de manière très étrange », a déclaré Sam Altman lors d'un événement à Abu Dhabi plus tôt cette année, selon Bloomberg. « J'aime ne pas être en conflit, et je pense que la possibilité que nous devions prendre un jour une décision très étrange n'est pas triviale », a-t-il ajouté lorsqu'il a été interrogé sur sa décision de ne prendre aucune participation dans OpenAI.
D'accord, mais l'IAG arrive-t-elle bientôt ?
Du côté des experts, la réponse n'est pas unanime : si certains en doute, d'autres se demandent si cela est même possible.
Merve Hickok, qui est à la tête du Center for AI and Digital Policy, ne veut même pas débattre sur la taille ou la diversité du conseil d'administration d'OpenAI dans le contexte de savoir qui doit déterminer si OpenAI a « atteint » ou non l'IAG, affirmant que cela détourne l'attention des discussions sur la légitimité de leur mission et de leurs revendications sous-jacentes. « Cela modifierait l’orientation et légitimerait de facto les affirmations selon lesquelles l’IAG est possible », a-t-elle déclaré.
Plus tôt cette année, elle indiquait que leur concentration sur l’IAG « a ignoré l’impact actuel » des modèles et des outils d’IA.
Il faut dire qu'il n'a pas tardé à se faire ressentir. Par exemple, dans le domaine des travailleurs indépendants, l'arrivée de ChatGPT a entraîné une baisse de 2 % des offres d'emploi et de 5,2 % des revenus mensuels des freelances.
Sources : structure OpenAI, LoganGPT, Planification pour l'IAG et au-delà (OpenAI)
Et vous ?
Comment définiriez-vous l'IAG ? Ce niveau d'IA vous semble-t-il proche d'être atteint ou même réalisable ? Pourquoi ?
Que pensez-vous du fait qu'OpenAI voudrait que six personnes que la structure a désigné décide si l'IAG a été atteinte par leur boîte ou non ? Cela vous semble-t-il raisonnable ? Dans quelle mesure ?
Qui devrait, selon vous, décider qu'une IA a atteint le niveau d'IAG ?