L'AGI est considérée comme l'objectif final de la recherche sur l'IA, le Saint Graal pour les entreprises d'IA. Sam Altman, PDG d'OpenAI, a affirmé qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés. Il a expliqué que le but est de construire l'intelligence artificielle générale (AGI) et que la fin justifie les moyens. Il a également déclaré que GPT-4 est la technologie la plus stupide que le monde aura à utiliser. Ce qui laisse suggérer que GPT-5 ne ressemblera en rien aux modèles d'IA précédents d'OpenAI et devrait être une évolution majeure de l'IA générative.
L'AGI ou l'intelligence artificielle générale est une IA dite "forte" qui devrait être capable de penser au même titre que les humains et de s'attaquer n'importe quelle tâche. L'industrie s'attend à ce que l'AGI soit capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. Mais bien que l'IA se soit considérablement développée à ce jour, pour beaucoup, ses capacités restent extrêmement limitées et elle est encore loin d'atteindre l'AGI.
Récemment, un ingénieur en IA d'OpenAI a déclaré que l'AGI a déjà été atteinte. Voici ces propos:
À mon avis, nous avons déjà atteint l'AGI et c'est encore plus clair avec O1. Nous ne sommes pas parvenus à « faire mieux que n'importe quel humain pour n'importe quelle tâche », mais à « faire mieux que la plupart des humains pour la plupart des tâches ». Certains disent que les LLM ne savent que suivre une recette. Tout d'abord, personne ne peut vraiment expliquer ce qu'un réseau neuronal profond de mille milliards de paramètres peut apprendre. Mais même si vous croyez cela, la méthode scientifique dans son ensemble peut être résumée par une recette : observer, émettre des hypothèses et vérifier. Les bons scientifiques peuvent produire de meilleures hypothèses sur la base de leur intuition, mais cette intuition elle-même a été construite par de nombreux essais et erreurs. Il n'y a rien qui ne puisse être appris avec des exemples.
Cette déclaration semble en accord aux précédentes annonces de Sam Altman. Il avait récemment déclaré : "Je pense que nous atteindrons l'AGI plus tôt que ne le pensent la plupart des gens dans le monde et que cela aura beaucoup moins d'importance. Et une grande partie des préoccupations en matière de sécurité que nous et d'autres avons exprimées ne se posent pas au moment de l'AGI. L'AGI peut être construite, le monde continue à peu près de la même manière, les choses se développent plus rapidement, mais il y a ensuite une longue suite entre ce que nous appelons l'AGI et ce que nous appelons la superintelligence."In my opinion we have already achieved AGI and it’s even more clear with O1. We have not achieved “better than any human at any task” but what we have is “better than most humans at most tasks”. Some say LLMs only know how to follow a recipe. Firstly, no one can really explain…
— Vahid Kazemi (@VahidK) December 6, 2024
Ces propos du PDG d'OpenAI admettent l'arrivée imminente de l'AGI, peut-être dès 2025, mais ils donnent également l'impression que la définition de l'AGI par OpenAI est désormais moins grandiose qu'elle ne l'était auparavant. Sam Altman avait même déclaré : "Je m'attends à ce que la perturbation économique prenne un peu plus de temps que les gens ne le pensent parce qu'il y a beaucoup d'inertie dans la société. Ainsi, au cours des deux premières années, il n'y aura peut-être pas beaucoup de changements. Ensuite, il se peut que beaucoup de choses changent."
Pour les observateurs de l'écosystème de l'IA, ces déclarations viennent s'ajouter aux battages médiatiques déjà énormes sur l'AGI. Un critique avait déclaré en 2023 : "L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas." Dana Blankenhorn, journaliste technologique, avait affirmé que l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas.
Son analyse suggère que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché. Son point de vue fait toutefois l'objet de controverses.
Et vous ?
Pensez-vous que ces déclarations de l'ingénieur d'OpenAI sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'intelligence générale artificielle (AGI) dans 3 ans, d'après James Betker, ingénieur chez OpenAI, serait un agent incarné généralement intelligent
Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir, « Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu »
Le chercheur en IA Max Tegmark estime qu'il faut mettre un terme aux progrès de l'IA et empêcher la création des AGI, en veillant à ce que l'IA ne devienne qu'un outil et non une superintelligence