Depuis quelques semaines, Sam Altman est en tournée mondiale. Il a déjà rencontré les chefs d’État de plusieurs pays, et il était aux Émirats arabes unis mardi. Il prévoit de se rendre ensuite au Qatar, en Inde et en Corée du Sud. C'est à cette occasion qu'il a eu l'opportunité de s'exprimer sur une hypothétique entrée en bourse : « nous avons une structure très étrange. Nous avons cette limite au profit », a-t-il déclaré.
Pour mieux comprendre comment la société est passée de société à but non lucratif à cette « structure étrange » dont parle Sam Altman, il faut retourner en 2018. Cette année-là, après le départ d'Elon Musk, OpenAI a déclaré que Musk continuerait à financer l'organisation, mais Musk ne l'a pas fait, selon des personnes proches du dossier. Il avait promis de donner environ 1 milliard de dollars sur une période de plusieurs années (il avait déjà contribué à hauteur de 100 millions de dollars), mais ses paiements ont cessé après son départ, ont déclaré des personnes proches du dossier. Cela a laissé l'organisation à but non lucratif dans l'impossibilité de payer les frais astronomiques associés à la formation de modèles d'IA sur des superordinateurs.
Cet automne-là, il est devenu encore plus évident pour certaines personnes d'OpenAI que les coûts pour devenir une entreprise d'IA de pointe allaient augmenter. Le « transformateur » de Google Brain avait ouvert une nouvelle frontière, où l'IA pouvait s'améliorer à l'infini. Mais cela signifiait lui fournir des données sans fin pour le former (une entreprise coûteuse).
OpenAI a pris la grande décision de pivoter vers ces modèles de transformateurs.
Le 11 mars 2019, OpenAI a annoncé qu'elle créait une entité à but lucratif afin de pouvoir collecter suffisamment d'argent pour payer la puissance de calcul nécessaire pour poursuivre les modèles d'IA les plus ambitieux. « Nous voulons augmenter notre capacité à lever des capitaux tout en servant notre mission, et aucune structure juridique préexistante que nous connaissons ne trouve le bon équilibre », écrivait la société à l'époque. OpenAI a déclaré qu'elle plafonnait les bénéfices pour les investisseurs, tout excédent revenant à l'organisation à but non lucratif d'origine.
Moins de six mois plus tard, OpenAI a pris 1 milliard de dollars à Microsoft, qui pourrait fournir non seulement un financement, mais aussi un savoir-faire en matière d'infrastructure. Ensemble, ils ont construit un superordinateur pour former des modèles massifs qui ont finalement créé ChatGPT et le générateur d'images DALL-E. Le dernier modèle de langage, GPT-4, a 1 000 milliards de paramètres.
Voyant le potentiel énorme de l'IA générative suite à l'engouement du public sur ChatGPT, Microsoft a décidé d'injecter 10 milliards de dollars dans OpenAI.
Bien entendu, Elon Musk était furieux de ce développement. En décembre, un mois après le lancement de ChatGPT, Musk a retiré l'accès d'OpenAI au « firehorse » de données de Twitter (un contrat qui a été signé avant que Musk n'acquière Twitter). Le 17 février, il a tweeté « OpenAI a été créé comme open source (c'est pourquoi je l'ai nommée "Open" AI), une société à but non lucratif pour servir de contrepoids à Google, mais maintenant c'est devenu une source fermée, maximum -société à but lucratif effectivement contrôlée par Microsoft ».
Le 15 mars, il a tweeté : « Je ne comprends toujours pas comment une organisation à but non lucratif à laquelle j'ai fait don d'environ 100 millions de dollars est devenue en quelque sorte une capitalisation boursière de 30 milliards de dollars. Si c'est légal, pourquoi tout le monde ne le fait-il pas ? »
La situation en Europe
En mai, les législateurs européens se sont rapprochés de l'adoption de nouvelles règles régissant les outils d'intelligence artificielle tels que ChatGPT, à la suite d'un vote serré où ils ont convenu d'un projet de loi plus strict.
La loi de l'UE sur l'intelligence artificielle (AI Act) a été initialement proposée en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonction des risques perçus, et seraient effectivement les premières lois axées sur l'IA introduites par un organisme de réglementation majeur. Ce projet de loi vise à établir la norme pour l’IA avant la Chine et les États-Unis, alors que l’utilisation croissante de la technologie a suscité des craintes de pertes d’emplois, de désinformation et d’atteintes aux droits d’auteur.
C'est dans ce contexte que Sam Altman a menacé de quitter l'Europe, estimant que, selon la manière dont le projet de loi est actuellement rédigé, ChatGPT et le grand modèle de langage GPT-4 pourraient être désignés à haut risque. Cela obligerait l'entreprise à se conformer à certaines exigences. Selon Time, le PDG d'OpenAI a déclaré : « Si nous pouvons nous conformer, nous le ferons, et si nous ne pouvons pas, nous cesserons nos activités… Nous essaierons. Mais il y a des limites techniques à ce qui est possible ».
Cela lui a valu des critiques de plusieurs législateurs, parmi lesquels le commissaire européen à l’industrie Thierry Breton.
Suite au tollé provoqué par ses déclarations, il a très vite changé de ton : « nous n’avons pas menacé de quitter l’UE », a-t-il déclaré. « Nous espérons pouvoir nous conformer. Il y a encore plus de clarté que nous attendons sur le projet de loi européen sur l’IA, mais nous sommes très enthousiastes à l’idée d’opérer en Europe ».
Altman a trouvé du soutien dans le chef technologique de l’UE, Margrethe Vestager, qui a déclaré qu’elle ne percevait pas les commentaires d’Altman comme une menace, mais comme une promesse de faire de son mieux : « La chose numéro un sur cette technologie que les gens ne comprennent pas, c’est que dans quelques années GPT 4 va ressembler à un petit jouet qui n’était pas si impressionnant », a déclaré Altman en faisant référence à la croissance de l’IA. « Il y aura des images, du son, de la vidéo, du texte, de la programmation informatique, tout ensemble ».
Cela n'a pas empêché les observateurs de rappeler que, quelques jours avant, le patron de ChatGPT a comparu devant le Congrès pour mettre en garde contre le « dommage important pour le monde » que ces plates-formes de haute technologie peuvent avoir si leur supervision tourne mal. Altman a déclaré lors d'une audience au Capitol Hill devant le comité sénatorial sur la vie privée, la technologie et la loi: « Si cette technologie tourne mal, elle peut mal tourner et nous voulons en parler. Nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise ».
Il a fait cette déclaration devant le Congrès alors que les législateurs américains examinent de plus en plus les technologies de l'IA comme le très populaire ChatGPT d'Altman pour un usage personnel et sur le lieu de travail.
Il a assuré aux législateurs américains qu'il était favorable à une réglementation plus stricte pour prévenir les « méfaits » de l'IA, en particulier de l'IA générative. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman.
Bien sûr, il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.
Sources : vidéo (dans le texte), OpenAI
Et vous ?
Que pensez-vous de la décision d’OpenAI de ne pas entrer en bourse ?
Croyez-vous que l’IA va dépasser l’intelligence humaine dans un avenir proche ?
Quels sont les avantages et les inconvénients d’une structure à profit limité pour une société comme OpenAI ?