
selon un critique
Les systèmes d'IA actuels se heurtent à des limites majeures dans l'automatisation du travail. Pour certains, cela est lié à leur incapacité à apprendre en continu comme le font les humains. Yann LeCun, responsable de l'IA chez Meta, a déclaré que les grands modèles de langage (LLM) actuels n'atteindront pas l'intelligence humaine et ne conduiront pas l'intelligence artificielle générale (AGI). Leur incapacité à construire un contexte, apprendre à partir de retours d'information ou s'améliorer au fil du temps comme le font les employés humains remettent en causes les discours enthousiastes selon lesquels l'AGI arrivera à la fin de la décennie, voire plus tôt.
Les prédictions audacieuses sur l'arrivée de l'AGI sont nombreuses. En mars 2023, Sam Altman, PDG d’OpenAI, a déclaré à plusieurs reprises que l'AGI pourrait apparaître d’ici à 2027. En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025. Peut-être même plus tôt ». En mai 2024, Demis Hassabis, PDG de Google DeepMind, a noté : « je pense que nous pourrions voir l’AGI dans les prochaines années, peut-être d’ici 2030 ».
Mais Satya Nadella, PDG de Microsoft, et Yann LeCun affirment que « l'AGI n'est pas pour tout de suite ». Yann LeCun, co-inventeur de l'apprentissage profond moderne et lauréat du prix Turing 2019, critique la croyance selon laquelle des modèles de langage puissent aboutir à une véritable intelligence générale. En janvier 2024, il expliquait : « les modèles d'IA actuels sont très loin de l’AGI. Ils ne comprennent pas, ne raisonnent pas, ne planifient pas ».
Dwarkesh Patel, qui anime Dwarkesh Podcast, est récemment revenu sur ses nombreux entretiens portant sur la date estimée de l'arrivée de l'AGI. Dans cet épisode, publié début juillet 2025, il a expliqué pourquoi il reste sceptique quant à une AGI imminente. « L'AGI n'est pas à portée de main », a-t-il déclaré.
Les limites importantes des grands modèles de langage aujourd'hui
Dans son analyse, Dwarkesh Patel reconnaît la puissance des systèmes d'IA modernes ; ces systèmes excellent notamment dans les tâches individuelles. Mais il souligne une faiblesse majeure : « leur absence d’apprentissage organique et continu ». Contrairement aux humains, qui apprennent de leurs erreurs, contextualisent chaque tâche et s'améliorent au fil du temps, les grands modèles de langage peinent à reproduire ce type d’apprentissage.
Dwarkesh Patel a partagé son vécu en tant qu'utilisateur de ces modèles dans le cadre de son travail podcasting : correction de transcriptions, sélection de clips, rédaction d’essais. Il explique que les premiers paragraphes d’un essai générés par un modèle sont souvent médiocres, mais qu’une bonne réponse arrive seulement après intervention humaine. Cela montre la dépendance des modèles à un ajustement humain pour apprendre de manière adaptative.

Dwarkesh Patel explique : « si les progrès de l'IA s'arrêtent totalement aujourd'hui, je pense que moins de 25 % des emplois de cols blancs disparaîtront. Bien sûr, de nombreuses tâches seront automatisées. Claude 4 Opus peut techniquement réécrire des transcriptions autogénérées pour moi. Mais comme il n'est pas possible pour moi de faire en sorte qu'il s'améliore au fil du temps et apprenne mes préférences, j'embauche toujours un humain pour cela ».
Il juge trop ambitieuse l'idée d’un modèle capable de s’autocorriger via l'apprentissage par renforcement. Il souligne les défis de généralisation au-delà d’un domaine spécifique et doute qu’une solution efficace émerge dans quelques années seulement, faute de mécanismes intégrés de mise à jour continue.
L'AGI : un concept nébuleux où chaque acteur a sa propre définition
Dwarkesh Patel ne rejette pas l’idée selon laquelle l’AGI peut émerger au cours de cette décennie. Au contraire, il pense que cela pourrait arriver avant 2032. Mais il estime qu’il reste des verrous fondamentaux, en particulier l’absence d’apprentissage continu (la capacité d’un modèle à apprendre au fil de ses expériences). Cependant, de nombreux critiques rejettent cette déclaration, affirmant que « l'AGI reste un concept nébuleux qui ne verra jamais le jour ».
En effet, l'industrie de l'IA n'est toujours pas tombée d'accord sur une définition unique de ce qu'est l'AGI. Chaque entreprise a sa propre définition. Début avril 2025, Google DeepMind a publié un document dans lequel il définit l'AGI comme « un système capable d'égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l'apprentissage de nouvelles compétences ».
Selon un rapport de The Information, OpenAI et Microsoft définissent l'AGI comme « un système d'IA pouvant générer jusqu'à 100 milliards de dollars de bénéfices », ce qui semble totalement éloigné de toute référence scientifique. Le rapport cite un document de 2023 émanant des deux entreprises. Il suggère que l'AGI, telle que beaucoup l'imaginent, est un objectif irréaliste et révèle surtout qu'OpenAI est aujourd'hui plus intéressé par les profits.
« Quiconque prétend qu'un concept mal défini, l'AGI, est sur le point de voir le jour est très probablement en train d'essayer de vendre quelque chose ou simplement se faire entendre », a écrit un critique. En outre, une étude d'Apple a remis en question les progrès vantés par OpenAI, Google et Anthropic en matière de raisonnement des modèles d'IA. Selon le rapport, la précision de cette technique s'effondre entièrement face à des problèmes complexes.
Les plus sceptiques pensent que les machines n'atteindront jamais ce niveau. En mars 2025, une enquête a révélé que la majorité des chercheurs en IA estiment que l'industrie technologique déverse des milliards dans une impasse. Environ 76 % d'entre eux estiment qu'il est « peu probable » ou « très peu probable » que l'augmentation de la puissance de calcul et des données des grands modèles de langage (LLM) actuels conduise à une AGI à l'avenir.
Une AGI d'ici la fin de la décennie ? Les experts restent sceptiques
Selon Dwarkesh Patel, lorsque nous parviendrons à résoudre le problème de l'apprentissage continu, nous assisterons à une énorme discontinuité dans la valeur des modèles d'IA. « Même s'il n'y a pas de singularité logicielle (les modèles construisant rapidement des systèmes successeurs de plus en plus intelligents), nous pourrions tout de même assister à quelque chose qui ressemble à une explosion de l'intelligence déployée à grande échelle », a-t-il déclaré.
Yann LeCun a déclaré que l'AGI est inévitable, mais n'arrivera pas de sitôt et qu'elle ne sera pas uniquement l'œuvre des modèles actuels. Selon lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. Selon Dwarkesh Patel, si certains sont trop pessimistes, c'est parce qu'ils n'ont pas joué avec les modèles d'IA les plus avancés.
En résumé, pour Dwarkesh Patel : l’AGI n’est pas une illusion, mais penser qu’elle va arriver dans un ou deux ans relève du fantasme. Il estime qu’il reste des verrous fondamentaux, et que ces problèmes pourraient être résolus d'ici à 2032. Dwarkesh Patel liste deux étapes-clés comme repères :
- d’ici 2028 : il pense qu’une IA pourrait être capable d’exécuter des tâches complexes du monde réel, comme faire toute la comptabilité personnelle d’une personne (collecte de documents, échanges avec le fisc, remplissage de formulaires, etc.) avec l’efficacité d’un bon manager ;
- d’ici 2032 : il imagine qu’on pourrait enfin avoir des modèles capables d’apprendre au fur et à mesure qu’ils sont utilisés, de se corriger, de progresser avec l’expérience — en clair, une IA qui s’améliore en travaillant, un peu comme un assistant humain.
Conclusion
L'AGI est un sujet quelque peu controversé dans le domaine de l'IA, les critiques suggérant qu'il ne s'agit que d'une chimère. « L'AGI est un mensonge. L'intelligence artificielle générale n'existe pas », a déclaré Dana Blankenhorn, journaliste technologique. Il estime que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie.
Les prédictions autour de l’AGI sont aujourd’hui profondément divisées entre enthousiasme et scepticisme mesuré. D’un côté, des figures comme Sam Altman, Elon Musk ou Mark Zuckerberg annoncent une AGI d’ici quelques années, parfois dès 2025, en s’appuyant sur la puissance croissante des modèles et des investissements massifs. De l’autre, des voix plus techniques comme Dwarkesh Patel, Satya Nadella ou Yann LeCun rappellent une réalité plus brute :
« Les modèles actuels, aussi impressionnants soient-ils, n’apprennent pas comme les humains. Ils ne comprennent pas, n’apprennent pas par expérience, ne généralisent pas bien. Et tant qu’ils n’auront pas surmonté ce goulot d’étranglement de l’apprentissage continu, l’AGI restera un objectif, pas un fait ».
Par ailleurs, en jetant un froid sur les promesses du raisonnement par l'IA, Apple ne se contente pas de critiquer ses concurrents. La firme de Cupertino soulève des questions fondamentales sur la trajectoire actuelle de l'IA et invite à une réflexion plus approfondie sur les défis qui restent à surmonter pour que la machine puisse un jour véritablement « penser ». Le rapport d'Apple renforce les doutes sur les capacités de l'industrie à atteindre une forme d'AGI.
Source : billet de blogue
Et vous ?



Voir aussi



Vous avez lu gratuitement 630 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.