IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'AGI n'est pas à portée de main. L'incapacité des modèles d'IA actuels à apprendre de façon autonome et continue, comme les humains, freine leur évolution vers une superintelligence »,
Selon un critique

Le , par Mathis Lucas

0PARTAGES

6  0 
« L'AGI n'est pas à portée de main. L'incapacité des modèles d’IA actuels à apprendre de façon autonome et continue, comme les humains, freine leur évolution vers une superintelligence »
selon un critique

Les systèmes d'IA actuels se heurtent à des limites majeures dans l'automatisation du travail. Pour certains, cela est lié à leur incapacité à apprendre en continu comme le font les humains. Yann LeCun, responsable de l'IA chez Meta, a déclaré que les grands modèles de langage (LLM) actuels n'atteindront pas l'intelligence humaine et ne conduiront pas l'intelligence artificielle générale (AGI). Leur incapacité à construire un contexte, apprendre à partir de retours d'information ou s'améliorer au fil du temps comme le font les employés humains remettent en causes les discours enthousiastes selon lesquels l'AGI arrivera à la fin de la décennie, voire plus tôt.

Les prédictions audacieuses sur l'arrivée de l'AGI sont nombreuses. En mars 2023, Sam Altman, PDG d’OpenAI, a déclaré à plusieurs reprises que l'AGI pourrait apparaître d’ici à 2027. En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025. Peut-être même plus tôt ». En mai 2024, Demis Hassabis, PDG de Google DeepMind, a noté : « je pense que nous pourrions voir l’AGI dans les prochaines années, peut-être d’ici 2030 ».

Mais Satya Nadella, PDG de Microsoft, et Yann LeCun affirment que « l'AGI n'est pas pour tout de suite ». Yann LeCun, co-inventeur de l'apprentissage profond moderne et lauréat du prix Turing 2019, critique la croyance selon laquelle des modèles de langage puissent aboutir à une véritable intelligence générale. En janvier 2024, il expliquait : « les modèles d'IA actuels sont très loin de l’AGI. Ils ne comprennent pas, ne raisonnent pas, ne planifient pas ».

Dwarkesh Patel, qui anime Dwarkesh Podcast, est récemment revenu sur ses nombreux entretiens portant sur la date estimée de l'arrivée de l'AGI. Dans cet épisode, publié début juillet 2025, il a expliqué pourquoi il reste sceptique quant à une AGI imminente. « L'AGI n'est pas à portée de main », a-t-il déclaré.

Les limites importantes des grands modèles de langage aujourd'hui

Dans son analyse, Dwarkesh Patel reconnaît la puissance des systèmes d'IA modernes ; ces systèmes excellent notamment dans les tâches individuelles. Mais il souligne une faiblesse majeure : « leur absence d’apprentissage organique et continu ». Contrairement aux humains, qui apprennent de leurs erreurs, contextualisent chaque tâche et s'améliorent au fil du temps, les grands modèles de langage peinent à reproduire ce type d’apprentissage.


Dwarkesh Patel a partagé son vécu en tant qu'utilisateur de ces modèles dans le cadre de son travail podcasting : correction de transcriptions, sélection de clips, rédaction d’essais. Il explique que les premiers paragraphes d’un essai générés par un modèle sont souvent médiocres, mais qu’une bonne réponse arrive seulement après intervention humaine. Cela montre la dépendance des modèles à un ajustement humain pour apprendre de manière adaptative.

Citation Envoyé par Dwarkesh Patel


Le problème fondamental est que les LLM ne s'améliorent pas avec le temps comme le ferait un être humain. L'absence d'apprentissage continu est un énorme problème. La ligne de base du LLM pour de nombreuses tâches peut être plus élevée que celle d'un humain moyen. Mais il n'y a aucun moyen de donner à un modèle un retour d'information de haut niveau. Vous êtes coincé avec les capacités que vous obtenez dans la boîte. Vous pouvez continuer à jouer avec l'invite du système. Dans la pratique, cela ne produit rien qui ressemble de près ou de loin au type d'apprentissage et d'amélioration dont les employés humains font l'expérience.

Le PDG d’Anthropic, Dario Amodei, a déclaré que l’IA est susceptible d’éliminer la moitié des emplois en col blanc dans les années à venir. Cependant, le PDG de Nvidia, Jensen Huang, s'oppose à cette prédiction. Jensen Huang explique plutôt que « les emplois de chacun seront modifiés ». Certains emplois seront obsolètes, mais de nombreux emplois seront créés. Dwarkesh Patel juge également que la prédiction du PDG d’Anthropic est trop optimiste.

Dwarkesh Patel explique : « si les progrès de l'IA s'arrêtent totalement aujourd'hui, je pense que moins de 25 % des emplois de cols blancs disparaîtront. Bien sûr, de nombreuses tâches seront automatisées. Claude 4 Opus peut techniquement réécrire des transcriptions autogénérées pour moi. Mais comme il n'est pas possible pour moi de faire en sorte qu'il s'améliore au fil du temps et apprenne mes préférences, j'embauche toujours un humain pour cela ».

Il juge trop ambitieuse l'idée d’un modèle capable de s’autocorriger via l'apprentissage par renforcement. Il souligne les défis de généralisation au-delà d’un domaine spécifique et doute qu’une solution efficace émerge dans quelques années seulement, faute de mécanismes intégrés de mise à jour continue.

L'AGI : un concept nébuleux où chaque acteur a sa propre définition

Dwarkesh Patel ne rejette pas l’idée selon laquelle l’AGI peut émerger au cours de cette décennie. Au contraire, il pense que cela pourrait arriver avant 2032. Mais il estime qu’il reste des verrous fondamentaux, en particulier l’absence d’apprentissage continu (la capacité d’un modèle à apprendre au fil de ses expériences). Cependant, de nombreux critiques rejettent cette déclaration, affirmant que « l'AGI reste un concept nébuleux qui ne verra jamais le jour ».


En effet, l'industrie de l'IA n'est toujours pas tombée d'accord sur une définition unique de ce qu'est l'AGI. Chaque entreprise a sa propre définition. Début avril 2025, Google DeepMind a publié un document dans lequel il définit l'AGI comme « un système capable d'égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l'apprentissage de nouvelles compétences ».

Selon un rapport de The Information, OpenAI et Microsoft définissent l'AGI comme « un système d'IA pouvant générer jusqu'à 100 milliards de dollars de bénéfices », ce qui semble totalement éloigné de toute référence scientifique. Le rapport cite un document de 2023 émanant des deux entreprises. Il suggère que l'AGI, telle que beaucoup l'imaginent, est un objectif irréaliste et révèle surtout qu'OpenAI est aujourd'hui plus intéressé par les profits.

« Quiconque prétend qu'un concept mal défini, l'AGI, est sur le point de voir le jour est très probablement en train d'essayer de vendre quelque chose ou simplement se faire entendre », a écrit un critique. En outre, une étude d'Apple a remis en question les progrès vantés par OpenAI, Google et Anthropic en matière de raisonnement des modèles d'IA. Selon le rapport, la précision de cette technique s'effondre entièrement face à des problèmes complexes.

Les plus sceptiques pensent que les machines n'atteindront jamais ce niveau. En mars 2025, une enquête a révélé que la majorité des chercheurs en IA estiment que l'industrie technologique déverse des milliards dans une impasse. Environ 76 % d'entre eux estiment qu'il est « peu probable » ou « très peu probable » que l'augmentation de la puissance de calcul et des données des grands modèles de langage (LLM) actuels conduise à une AGI à l'avenir.

Une AGI d'ici la fin de la décennie ? Les experts restent sceptiques

Selon Dwarkesh Patel, lorsque nous parviendrons à résoudre le problème de l'apprentissage continu, nous assisterons à une énorme discontinuité dans la valeur des modèles d'IA. « Même s'il n'y a pas de singularité logicielle (les modèles construisant rapidement des systèmes successeurs de plus en plus intelligents), nous pourrions tout de même assister à quelque chose qui ressemble à une explosion de l'intelligence déployée à grande échelle », a-t-il déclaré.


Yann LeCun a déclaré que l'AGI est inévitable, mais n'arrivera pas de sitôt et qu'elle ne sera pas uniquement l'œuvre des modèles actuels. Selon lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. Selon Dwarkesh Patel, si certains sont trop pessimistes, c'est parce qu'ils n'ont pas joué avec les modèles d'IA les plus avancés.

En résumé, pour Dwarkesh Patel : l’AGI n’est pas une illusion, mais penser qu’elle va arriver dans un ou deux ans relève du fantasme. Il estime qu’il reste des verrous fondamentaux, et que ces problèmes pourraient être résolus d'ici à 2032. Dwarkesh Patel liste deux étapes-clés comme repères :

  1. d’ici 2028 : il pense qu’une IA pourrait être capable d’exécuter des tâches complexes du monde réel, comme faire toute la comptabilité personnelle d’une personne (collecte de documents, échanges avec le fisc, remplissage de formulaires, etc.) avec l’efficacité d’un bon manager ;
  2. d’ici 2032 : il imagine qu’on pourrait enfin avoir des modèles capables d’apprendre au fur et à mesure qu’ils sont utilisés, de se corriger, de progresser avec l’expérience — en clair, une IA qui s’améliore en travaillant, un peu comme un assistant humain.


Conclusion

L'AGI est un sujet quelque peu controversé dans le domaine de l'IA, les critiques suggérant qu'il ne s'agit que d'une chimère. « L'AGI est un mensonge. L'intelligence artificielle générale n'existe pas », a déclaré Dana Blankenhorn, journaliste technologique. Il estime que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie.

Les prédictions autour de l’AGI sont aujourd’hui profondément divisées entre enthousiasme et scepticisme mesuré. D’un côté, des figures comme Sam Altman, Elon Musk ou Mark Zuckerberg annoncent une AGI d’ici quelques années, parfois dès 2025, en s’appuyant sur la puissance croissante des modèles et des investissements massifs. De l’autre, des voix plus techniques comme Dwarkesh Patel, Satya Nadella ou Yann LeCun rappellent une réalité plus brute :

« Les modèles actuels, aussi impressionnants soient-ils, n’apprennent pas comme les humains. Ils ne comprennent pas, n’apprennent pas par expérience, ne généralisent pas bien. Et tant qu’ils n’auront pas surmonté ce goulot d’étranglement de l’apprentissage continu, l’AGI restera un objectif, pas un fait ».

Par ailleurs, en jetant un froid sur les promesses du raisonnement par l'IA, Apple ne se contente pas de critiquer ses concurrents. La firme de Cupertino soulève des questions fondamentales sur la trajectoire actuelle de l'IA et invite à une réflexion plus approfondie sur les défis qui restent à surmonter pour que la machine puisse un jour véritablement « penser ». Le rapport d'Apple renforce les doutes sur les capacités de l'industrie à atteindre une forme d'AGI.

Source : billet de blogue

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des limites des modèles d'IA relevées par Dwarkesh Patel ?
Selon vous, l'AGI est-il un objectif atteignable pour l'industrie technologique ? Pourquoi ?

Voir aussi

Une étude d'Apple remet en question les progrès en «raisonnement» IA vantés par OpenAI, Google et Anthropic : leurs LRM subissent un « effondrement complet de leur précision » face à des problèmes complexes

Google DeepMind recrute un chercheur scientifique « post-AGI » afin d'étudier l'impact profond que cette technologie aura sur la société, sans apporter la preuve qu'il est sur le point de parvenir à une AGI

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques
Vous avez lu gratuitement 630 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 08/07/2025 à 15:34
En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025
Bon, ben, si Elon Musk le dit, c'est qu'on est pas prêt d'avoir une AGI !
2  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 08/07/2025 à 15:41
Salut Matthieu Vergne.

Citation Envoyé par Matthieu Vergne
mais tu es tombé dans le piège marketing de l'IA.
J'ai compris comme fonctionne l'IA, et c'est pourquoi la version utilisée de ChatGPT est figée dans le temps.
Pour l'instant, je m'en sers surtout pour récupérer plus facilement des informations que de faire par moi-même la recherche sur le net qui va me prendre beaucoup plus de temps, et surtout ne pas faire des impasses.

Citation Envoyé par Matthieu Vergne
Une fois qu'on sait exploiter le contexte, on peut utiliser des outils du genre récupération de données sur internet.
Comme tout un chacun, je l'utilise pour récupérer des informations et dans mon cas, pour des problèmes de configuration de réseau. Je lui dis en début de conversation que je suis dans telle version, mais rien n'y fait, il s'entête à me donner des solutions pour une autre version, souvent plus ancienne et donc plus opérationnelle. Je suis obligé de lui rappeler la version dans laquelle je me trouve. Et il me répond "merci de m'avoir recadré", mais cela ne l'empêche pas de recommencer un peu plus tard. Ou encore de s'obstiner à vouloir des VLAN chez SFR alors qu'il n'y en a pas.

Un point qui m'énerve est la réponse qu'il me donne où il y a trente-six étapes. Je lui demande de me faire étape par étape, mais rien n'y fait, il recommence à me donner un gros pavé que je ne lis plus en entier.

Autre point, la fiabilité des informations récupérées. Il commet beaucoup d'erreurs d'interprétation. Le plus simple est alors de me donner le lien afin que je lise les réponses données. Et c'est là que je découvre que le lien n'existe pas. Ou encore qu'il va chercher la réponse dans un lien qui n'a aucun rapport avec le sujet demandé.

Ce que je ne sais pas faire, est de créer un contexte qui me soit favorable afin de ne pas toujours lui expliquer ce que j'attends de lui. Je sais, on peut mettre en mémoire des demandes afin d'éviter de toujours lui rappeler le contexte. Il est fort probable que je ne sais pas encore bien me servir de l'outil IA.

Citation Envoyé par Matthieu Vergne
Une fois qu'on a compris ça, on a compris qu'il ne faut jamais faire aveuglément confiance à un LLM.
Exacte et je m'en suis rendu compte par les erreurs qu'il commet. Je suis obligé de toujours vérifier ses sources.

J'utilise la version gratuite de ChatGPT, et je ne sais pas si en prenant la version payante, j'aurai encore les mêmes problèmes. Je suppose que nous devons attendre encore quelques années avant d'avoir un IA fiable. Par fiable, j'entends ne plus avoir des erreurs d'interprétations, mais aussi de ne plus être atteint par la maladie d'Alzheimer comme je l'ai indiqué un peu plus haut.
0  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 08/07/2025 à 15:53
Une AGI (ou IAG en français pour Intelligence artificielle générale) ? Déjà, il faudrait se concerter pour savoir de quoi nous parlons. En ce qui le concerne, j'ai déjà du mal à comprendre ce qu'est une IA, alors une IAG est encore bien plus nébuleux (aucun rapport avec le CLOUD).

Si je prends les métiers, chaque contexte est différent, pas uniquement dans le jargon utilisé où un mot peut avoir différents sens selon les métiers, mais aussi dans la façon de raisonner. Je pense que nous aurons des IA spécialisés pour chaque métier plutôt que d'avoir une IA généralisé où il excellerait dans tous les domaines. Sauf si cette IA va déléguer sa demande à un IA bien plus spécialisé que lui.

Et que dire d'une IA qui aurait conscience d'elle-même (HAL 9000, Skynet ou mien avec David 8 dans Alien Covenant) ?
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 08/07/2025 à 18:10
Les llm sont tres mauvais pour notre futur, dans le sens ou elles sont limités au contenus produit par des humains.
Sauf que le web se fait de plus en plus polluer par des contenus généré par ia, qui n'apporte rien. Voir dans le dev par exemple la baisse des questions/réponses sur stackoverflow.

Va falloir que les nouvelles libs et technos soit rétro compatible avec les bouts de code pondu par les ia
ou coder des docs adaptés aux llm, mais bon la plupart des projets n'ont pas de docs et ceux qui en ont sont souvent des foutoirs super mal fait et pas mis a jours. Rare sont les projets avec une bonne doc a jours et de qualité.
J'ai encore trouvé des trucs faux dans rabbitmq aujourd'hui par exemple.

Les boites embauches moins de juniors, je crois avoir vu une stat avec une baise de 50%, il va y avoir un gros trou dans 20ans pour trouver des ingénieurs compétents.

Bref il faut combattre le futur


J'ai déjà bossé sur des algo évolutionniste, je pense qu'il doit être possible de lié des llms a des algos génétique par exemple pour arriver a créer/concevoir des solutions. Et ensuite re entrainer les llms avec les solutions trouvés.
Les algo génétique ca trouve toujours la meilleur solution, mais en contre partie sa demande un nombre énorme d'itération, ce serait pas rentable avec des llms.

Ou sinon plus simplement embaucher des hordes d'indonésiens/afghans/pakistanais...pays_pas_cher_random pour générer des jeux de données. Mais ce système a aussi ces limites, pour les choses basique ca marche, mais pour les domaines de pointe et complexe, c'est pas le type payer pas cher en Indonésie qui pourra générer un bon dataset.

Enfin, en 2025 les boites se sont adaptés aux ia, désormais plus question de fournir gratuitement le contenus à ces boites, souvent les sites de qualités ont des paywall/bloque les bots/limite les requêtes par jours pour éviter que chatgpt viennent tous piller le contenus en 1 nuit.
Et je pense qu'a terme beaucoup d'artistes et d'ingénieurs vont boycotter les sites de pillage. Les artistes commence déja a fuir la platefrome de Adobe qui vol leurs travails pour entrainer leurs ia, et les dev peuvent très bien fuir github dans le futur.
Il existe aussi pour les photos des techniques pour empêcher l'ia de s'entrainer dessus (Filtres de perturbation adversariale), mais je ne sais pas ce que ça vaut concrètement, surement il existe déja des contre mesure...
Si les artistes veulent pas se faire grand remplacer c'est dans leurs intérêt de toute façon d’empêcher les ia de pomper sur leurs photos.
0  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 08/07/2025 à 18:40
Le problème des algorithmes génétiques est qu’il faut des critères d’évaluation, chose que l’on n’a pas pour des réponse en language naturel à des questions posées en language naturel.

J’imagine pour la programmation des critères d’évaluation issu de logiciels assurant de preuve (Coq, Isabelle…) l’idée serait de demander au LLM du code avec la preuve de conformité aux spécifications… le logiciel de preuve vérifie les preuves, et le cas échéant renvoie au LLM une demande de correction d’incohérences.
0  0