IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG de Google DeepMind, Demis Hassabis, vient de lancer une « bombe » au PDG d'OpenAI, Sam Altman : la voie empruntée par ChatGPT vers la superintelligence AGI pourrait être une impasse

Le , par Alex

110PARTAGES

9  0 
Le PDG de Google DeepMind, Demis Hassabis, vient de lancer une « bombe » au PDG d'OpenAI, Sam Altman : la voie empruntée par ChatGPT vers la superintelligence AGI pourrait être une impasse

Demis Hassabis vient d'annoncer au monde de l'IA que la voie vers la superintelligence empruntée par ChatGPT pourrait être une impasse. Le PDG de Google DeepMind affirme que les grands modèles de langage (LLM), la technologie à la base des produits phares d'OpenAI, ne peuvent pas aboutir à de véritables percées scientifiques car ils ne disposent pas de ce qu'il appelle « un modèle de monde ». C'est une critique directe de la stratégie de développement de Sam Altman. Alors qu'OpenAI a misé des milliards pour rendre les LLM plus grands et plus rapides, Hassabis affirme que cette approche se heurte à un obstacle fondamental.

Les systèmes d'IA actuels se heurtent à des limites majeures dans l'automatisation du travail. Pour certains, cela est lié à leur incapacité à apprendre en continu comme le font les humains. Yann LeCun, responsable de l'IA chez Meta, a déclaré que les grands modèles de langage (LLM) actuels n'atteindront pas l'intelligence humaine et ne conduiront pas l'intelligence artificielle générale (AGI). Leur incapacité à construire un contexte, apprendre à partir de retours d'information ou s'améliorer au fil du temps comme le font les employés humains remettent en causes les discours enthousiastes selon lesquels l'AGI arrivera à la fin de la décennie, voire plus tôt.

En effet, d’un côté, des figures comme Sam Altman, Elon Musk ou Mark Zuckerberg annoncent une AGI d’ici quelques années, en s’appuyant sur la puissance croissante des modèles et des investissements massifs. De l’autre, des voix plus techniques comme Dwarkesh Patel, Satya Nadella ou Yann LeCun rappellent une réalité plus brute : « Les modèles actuels, aussi impressionnants soient-ils, n’apprennent pas comme les humains. Ils ne comprennent pas, n’apprennent pas par expérience, ne généralisent pas bien. Et tant qu’ils n’auront pas surmonté ce goulot d’étranglement de l’apprentissage continu, l’AGI restera un objectif, pas un fait ».

Récemment, Demis Hassabis a lancé un avertissement similaire. Demis Hassabis, né le 27 juillet 1976, est un chercheur et entrepreneur britannique spécialisé dans l'intelligence artificielle (IA). Il est PDG et cofondateur de Google DeepMind et d'Isomorphic Labs, ainsi que conseiller du gouvernement britannique en matière d'IA. En 2024, Hassabis et John M. Jumper ont reçu conjointement le prix Nobel de chimie pour leurs contributions à la recherche en IA dans le domaine de la prédiction de la structure des protéines.

Demis Hassabis vient d'annoncer au monde de l'IA que la voie vers la superintelligence empruntée par ChatGPT pourrait être une impasse. Le PDG de Google DeepMind, dans un podcast « The Tech Download », affirme que les grands modèles de langage (LLM), la technologie à la base des produits phares d'OpenAI, ne peuvent pas aboutir à de véritables percées scientifiques car ils ne disposent pas de ce qu'il appelle « un modèle de monde ».


C'est une critique directe de la stratégie de développement de Sam Altman. Alors qu'OpenAI a misé des milliards pour rendre les LLM plus grands et plus rapides, Hassabis affirme que cette approche se heurte à un obstacle fondamental. « Les grands modèles de langage actuels sont phénoménaux en matière de reconnaissance de formes », a-t-il expliqué dans « The Tech Download ». « Mais ils ne comprennent pas vraiment la causalité. Ils ne savent pas vraiment pourquoi A mène à B. Ils se contentent de prédire le prochain token en se basant sur des corrélations statistiques. »

Selon Hassabis, une véritable invention scientifique nécessite quelque chose de plus profond : la capacité à mener des expériences de pensée, à simuler la physique avec précision et à raisonner à partir des principes fondamentaux. Cela nécessite un modèle de monde, c'est-à-dire un moteur de simulation interne qui comprend le fonctionnement réel de la réalité, et pas seulement la façon dont les mots s'enchaînent généralement.

DeepMind est déjà en train de le construire. Son système Genie 3, lancé en août dernier, génère des environnements 3D interactifs à partir de texte. SIMA 2 forme des agents IA à l'intérieur de ces mondes simulés. Les premières recherches montrent que ces approches hybrides surpassent les LLM purs de 20 à 30 % dans les tâches de raisonnement. Plus important encore, elles n'hallucinent pas la physique de base comme le fait parfois ChatGPT.

Pourquoi l'attaque de Demis Hassabis contre OpenAI a un impact différent aujourd'hui ?

Le timing fait que cela dépasse le cadre d'un débat académique. Le lancement de Gemini 3.0 par Google en novembre a déclenché ce qu'Altman a appelé un « code rouge » au sein d'OpenAI, un recentrage d'urgence après que ChatGPT a commencé à perdre du terrain. Hassabis a essentiellement confirmé en janvier que Google avait provoqué cette panique. Parallèlement, Llama 4 de Meta a connu un échec retentissant en avril, accusé d'avoir truqué les benchmarks. OpenAI n'a pas proposé de modèle révolutionnaire depuis GPT-4.

Le discours de l'industrie est en train de passer de « la taille résout tout » à « nous avons peut-être besoin d'une architecture complètement différente ». Hassabis estime que l'AGI est encore à 5-10 ans et nécessite ce qu'il appelle « deux avancées de l'ampleur d'AlphaGo ». Il précise clairement que l'une d'entre elles ne consiste pas seulement à créer des modèles de langage plus grands. Il s'agit d'enseigner à l'IA comment le monde fonctionne réellement, ce que le programme actuel d'OpenAI ne prévoit pas.

En outre, cette déclaration intervient après qu'il a mis en garde contre le caractère non viable des valorisations actuelles des start-ups spécialisées dans l'IA, nombreuses étant celles qui lèvent des milliards avant même de lancer leurs produits. Selon lui, cette tendance au financement spéculatif révèle les failles du modèle de valorisation actuel et laisse présager une potentielle correction du marché.

Cependant, il avait déclaré que la mise à l'échelle des systèmes actuels devait être poussée au maximum, la qualifiant de voie critique vers l'intelligence artificielle générale (AGI). « Nous devons pousser au maximum l'évolutivité des systèmes actuels, car au minimum, elle constituera un élément clé du système AGI final. Elle pourrait même représenter l'intégralité du système AGI », a déclaré Demis Hassabis.

Les dernières déclarations d'Hassabis semblent montrer un changement d'avis. Il reste à prouver que les modèles de monde tiendront cette promesse, mais Hassabis a rendu son pari public et positionne Google comme l'entreprise qui a été la première à voir cette limite.

Et vous ?

Pensez-vous que cette déclaration est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Trois ans après avoir été pris au dépourvu par ChatGPT, Gemini est-il en train de gagner ? Des benchmarks et des chercheurs suggèrent que Gemini a ce qu'il faut pour détrôner OpenAI et tous ses concurrents

Alors que les progrès des LLM ralentissent, les entreprises d'IA investissent massivement dans les « modèles de monde » capables de comprendre les environnements humains et simuler la réalité au-delà du texte

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI) : Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei
Vous avez lu gratuitement 2 328 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 20/01/2026 à 16:20
Il n’y a absolument rien qui puisse être qualifié de bombe, car il a été démontré depuis longtemps que les modèles de langage basés sur les Transformers ne peuvent pas atteindre l’AGI.
Et il est tout aussi évident qu'ils sont au courant chez OpenAI.
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 20/01/2026 à 16:47
Citation Envoyé par Alex Voir le message
Les systèmes d'IA actuels se heurtent à des limites majeures dans l'automatisation du travail. Pour certains, cela est lié à leur incapacité à apprendre en continu comme le font les humains. Yann LeCun, responsable de l'IA chez Meta, a déclaré que les grands modèles de langage (LLM) actuels n'atteindront pas l'intelligence humaine et ne conduiront pas l'intelligence artificielle générale (AGI). Leur incapacité à construire un contexte, apprendre à partir de retours d'information ou s'améliorer au fil du temps comme le font les employés humains remettent en causes les discours enthousiastes selon lesquels l'AGI arrivera à la fin de la décennie, voire plus tôt.
Même sans atteindre l'intelligence humaine ni l'intelligence artificielle générale, les chatbots finiront peut-être par pouvoir être très utile dans certains domaines.
Est-ce qu'il y aura suffisamment d'utilisateurs payants pour qu'une entreprise qui propose un chatbot IA puisse survivre ?
Si beaucoup d'entreprises se mettent à payer des outils IA très cher, alors ce sera probablement le cas.

L'incapacité à apprendre à partir des retours est frustrante.
Parfois tu demandes un truc technique, la réponse est fausse, un "dialogue" s'installe, une fois que t'as trouvé t'as envie de répondre au chatbot "Eurêka ! C'est comme ça qu'il fallait faire pour que ça fonctionne comme attendu" mais ça ne servirait à rien, parce qu'il ne va pas intégrer le truc.

Citation Envoyé par Alex Voir le message
DeepMind est déjà en train de le construire. Son système Genie 3, lancé en août dernier, génère des environnements 3D interactifs à partir de texte. SIMA 2 forme des agents IA à l'intérieur de ces mondes simulés. Les premières recherches montrent que ces approches hybrides surpassent les LLM purs de 20 à 30 % dans les tâches de raisonnement. Plus important encore, elles n'hallucinent pas la physique de base comme le fait parfois ChatGPT.
Demis Hassabis c'est le PDG de DeepMind...
C'est encore un gars qui dit "les autres entreprises font de la merde, investissez chez nous".
3  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 21/01/2026 à 7:46
Cesser de coder ...

Pendant qu'on y est, et si on cessait de calculer mentalement son ticket de caisse en attendant son tour ?

Si on repère une jolie fille on va charger l'IA de le lui dire ?

Et puis quoi encore ?
1  0 
Avatar de Ir Willy Dev
Nouveau Candidat au Club https://www.developpez.com
Le 21/01/2026 à 20:55
L’ia 😪
0  0