Aujourd'hui, Sam Altman tente de réduire les attentes.
Cette annonce, surprenante pour certains, s’inscrit dans un contexte où les avancées spectaculaires de l’IA générative (comme GPT-4) n’ont pas encore répondu aux attentes souvent exagérées concernant l’IAG. Mais qu’entend exactement Altman par « abaisser la barre » ? Est-ce un aveu d’échec, une stratégie pragmatique ou un repositionnement stratégique d’OpenAI ?
Une redéfinition de l’objectif
La promesse de l’intelligence artificielle générale a toujours fait rêver les scientifiques et les visionnaires. Une machine capable de comprendre, d’apprendre et de s’adapter de manière similaire à l’intelligence humaine est perçue par certains comme le Saint Graal technologique.
Envoyé par OpenAI
Historiquement, l’IAG a été conceptualisée comme une intelligence capable de reproduire, voire surpasser, toutes les capacités cognitives humaines. Dans cette vision, l’IAG ne se limiterait pas à des tâches spécifiques mais pourrait résoudre une gamme infinie de problèmes avec créativité et adaptabilité. Toutefois, la déclaration d’Altman semble signaler un virage : l’IAG pourrait être redéfinie comme une avancée significative mais restreinte dans certains domaines clés, sans pour autant atteindre une équivalence totale avec la cognition humaine.
Cette approche reflète une réalité : malgré des progrès impressionnants, l’IA reste fortement limitée par des biais inhérents, une compréhension fragmentaire du monde et une incapacité à véritablement raisonner. Les modèles comme GPT-4 montrent une capacité d’imitation sophistiquée mais échouent souvent à démontrer une réelle compréhension. En d’autres termes, Altman semble vouloir aligner la vision de l’IAG avec les possibilités techniques actuelles et à venir, plutôt que de maintenir un objectif utopique.
« Je pense que nous atteindrons l'IAG plus tôt que ne le pensent la plupart des gens dans le monde et que cela aura beaucoup moins d'importance », a-t-il déclaré lors d'une interview avec Andrew Ross Sorkin au New York Times DealBook Summit.
« Et une grande partie des préoccupations en matière de sécurité que nous et d'autres avons exprimées ne se posent pas au moment de l'IAG. L'IAG peut être construite, le monde continue à peu près de la même manière, les choses se développent plus rapidement, mais il y a ensuite une longue suite entre ce que nous appelons l'IAG et ce que nous appelons la superintelligence ».
Ce n'est pas la première fois qu'Altman minimise l'arrivée apparemment imminente de l'IAG, qui, selon la charte d'OpenAI, sera capable « d'automatiser la grande majorité du travail intellectuel ». Il a récemment laissé entendre qu'elle pourrait arriver dès 2025 et qu'elle serait réalisable sur du matériel existant.
Lors du sommet DealBook, Altman a donné l'impression que la définition de l'IAG par OpenAI est désormais moins grandiose qu'elle ne l'était auparavant. « Je m'attends à ce que la perturbation économique prenne un peu plus de temps que les gens ne le pensent parce qu'il y a beaucoup d'inertie dans la société », a-t-il déclaré. « Ainsi, au cours des deux premières années, il n'y aura peut-être pas beaucoup de changements. Ensuite, il se peut que beaucoup de choses changent ».
Une porte de sortie de son accord commercial exclusif avec Microsoft ?
Ce que les dirigeants d'OpenAI qualifiaient d'IAG semble maintenant s'appeler « superintelligence », qui, selon Altman, pourrait arriver « dans quelques milliers de jours ». Ce qui est pratique pour OpenAI, c'est que son accord commercial exclusif avec Microsoft, incroyablement compliqué, comporte ce qui s'apparente à une échappatoire une fois qu'il déclare l'arrivée de l'IAG, et non de la superintelligence.
Sortir de son accord de partage des bénéfices avec Microsoft serait une grande affaire pour OpenAI et ses ambitions de devenir la prochaine grande entreprise technologique à but lucratif. Mais selon Altman lui-même, l'IAG ne sera pas une si grande affaire pour le reste d'entre nous.
Altman s'est dit optimiste quant à l'adaptation des humains et de l'économie aux changements apportés par l'IA, et même si les emplois seront fortement perturbés, les gens s'adapteront et trouveront de nouvelles façons de contribuer.
« Je ne crois pas à l'idée qu'il n'y ait plus de travail. Je pense que nous trouverons toujours quelque chose à faire, mais avec chaque révolution technologique, il y a beaucoup de rotation des emplois. Mais je parie que nous n'aurons jamais connu une telle rapidité. Je pense donc qu'il faut s'inquiéter de ce genre de choses à relativement court terme ».
Les implications stratégiques
En abaissant les attentes autour de l’IAG, Altman ne renonce pas à l’innovation, mais redéfinit les priorités. Une telle stratégie peut permettre à OpenAI de concentrer ses ressources sur des applications concrètes de l’IA, plutôt que de poursuivre un idéal encore inaccessible. Cela pourrait également apaiser les craintes croissantes du public et des régulateurs, qui associent souvent l’IAG à des scénarios dystopiques où les machines échappent au contrôle humain.
Cependant, cette décision soulève des questions. Réduire la portée de l’IAG ne risque-t-il pas de diluer l’ambition d’OpenAI, voire de décourager les investisseurs et les talents attirés par la promesse d’une révolution ? En outre, cela pourrait renforcer l’idée que l’IAG est une chimère, une simple extrapolation des capacités actuelles de l’IA, plutôt qu’un objectif atteignable.
Pragmatisme ou recul ?
La critique principale de cette redéfinition est qu’elle pourrait être perçue comme un recul masqué par un pragmatisme stratégique. D’un autre côté, elle marque peut-être une nécessaire désillusion : reconnaître les limites actuelles de la technologie permettrait d’adopter une approche plus réaliste de son développement.
Altman semble adopter une vision plus mesurée face à un domaine saturé d’hyperboles et de prophéties apocalyptiques. Pourtant, ce changement de cap pourrait signaler un changement de paradigme plus large : l’idée que l’IA n’a pas besoin d’égaler l’intelligence humaine pour transformer nos sociétés.
Musk n'abusera pas de son pouvoir
Musk est cofondateur d'OpenAI, mais il s'est brouillé avec Altman et poursuit l'entreprise pour avoir violé sa mission fondatrice en faisant passer le profit avant le bénéfice de l'humanité. Musk a son propre rival OpenAI, appelé xAI.
Altman s'est dit « extrêmement triste » de s'être brouillé avec Musk, qui était pour lui un « méga-héros » : « J'ai des sentiments différents à son égard maintenant, mais je suis toujours heureux qu'il existe », a déclaré Altman, ajoutant que l'influence politique de Musk en tant que “premier ami” du président élu américain Donald Trump ne l'effrayait pas.
« Je peux me tromper, mais je crois fermement qu'Elon fera ce qu'il faut. Il serait profondément anti-américain d'utiliser le pouvoir politique, dans la mesure où Elon l'a, pour nuire à vos concurrents et avantager vos propres entreprises », a déclaré Altman. « Je ne pense pas que les gens le toléreraient. Je ne pense pas qu'Elon le ferait. Il y a beaucoup de choses que l'on n'aime pas chez lui, mais cela irait tellement à l'encontre des valeurs qui lui sont chères que je ne m'en inquiète pas ».
Les agents d'IA vont changer le monde des affaires
Interrogé sur la manière dont les progrès réalisés dans le développement de grands modèles de langage plus intelligents pourraient surprendre les gens avec de nouvelles capacités, Altman a opté directement pour les agents d'IA. L'IA agentique est la saveur du mois chez les grands fournisseurs de logiciels tels que Salesforce et implique des « travailleurs » de l'IA qui peuvent effectuer des tâches de manière autonome, en imitant essentiellement la façon dont les humains les feraient. À ce propos, Salesforce prévoit de recruter 1 000 employés pour vendre son nouveau produit d'agent d'IA générative, Agentforce. Une initiative qui a été prise quelques semaines après que Salesforce a annoncé Dreamforce, sa nouvelle stratégie en matière d'IA, et reconnu que l'IA va remplacer certains emplois humains.
Anthropic, le rival d'OpenAI, a fait sensation en octobre lorsqu'il a démontré que des agents d'IA faisaient fonctionner un ordinateur à partir d'un simple message d'invite.
« Les agents sont le sujet dont tout le monde parle, et je pense que c'est à juste titre », a déclaré Altman.
« L'idée que l'on puisse confier à un système d'IA une tâche que l'on confierait à un humain très intelligent... C'est le genre de choses que j'attends pour l'année prochaine, et c'est une affaire énorme... Si cela fonctionne aussi bien que nous l'espérons, cela peut vraiment transformer les choses ».
Conclusion
En abaissant la barre pour l’AGI, Sam Altman ouvre un débat crucial sur les objectifs réels et les limites de la recherche en intelligence artificielle. Plutôt qu’un renoncement, cette redéfinition pourrait marquer une évolution vers une vision plus nuancée et ancrée dans le réel. Mais ce choix stratégique comporte aussi des risques : celui de décevoir des attentes et d’altérer l’attrait visionnaire d’OpenAI. L’avenir de l’IAG, tel que le conçoit Altman, dépendra de la capacité de cette vision révisée à inspirer autant qu’à innover.
Sources : vidéo dans le texte, OpenAI
Et vous ?
La déclaration de Sam Altman pourrait-elle être interprétée comme un aveu d’échec par le grand public ? Comment OpenAI devrait-elle communiquer pour éviter ce malentendu ?
En abaissant les attentes, OpenAI prend-elle le risque de nourrir un scepticisme plus large envers les promesses de l’IA ?
Cette redéfinition reflète-t-elle une prise de conscience technique ou un repositionnement stratégique face aux attentes sociétales et politiques ?
La baisse des ambitions pourrait-elle ouvrir la voie à d’autres acteurs pour revendiquer des objectifs plus ambitieux et attirer des financements ?
Une porte de sortie de son accord commercial exclusif avec Microsoft ?