IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'AGI n'est pas à portée de main. L'incapacité des modèles d'IA actuels à apprendre de façon autonome et continue, comme les humains, freine leur évolution vers une superintelligence »,
Selon un critique

Le , par Mathis Lucas

40PARTAGES

7  0 
« L'AGI n'est pas à portée de main. L'incapacité des modèles d’IA actuels à apprendre de façon autonome et continue, comme les humains, freine leur évolution vers une superintelligence »
selon un critique

Les systèmes d'IA actuels se heurtent à des limites majeures dans l'automatisation du travail. Pour certains, cela est lié à leur incapacité à apprendre en continu comme le font les humains. Yann LeCun, responsable de l'IA chez Meta, a déclaré que les grands modèles de langage (LLM) actuels n'atteindront pas l'intelligence humaine et ne conduiront pas l'intelligence artificielle générale (AGI). Leur incapacité à construire un contexte, apprendre à partir de retours d'information ou s'améliorer au fil du temps comme le font les employés humains remettent en causes les discours enthousiastes selon lesquels l'AGI arrivera à la fin de la décennie, voire plus tôt.

Les prédictions audacieuses sur l'arrivée de l'AGI sont nombreuses. En mars 2023, Sam Altman, PDG d’OpenAI, a déclaré à plusieurs reprises que l'AGI pourrait apparaître d’ici à 2027. En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025. Peut-être même plus tôt ». En mai 2024, Demis Hassabis, PDG de Google DeepMind, a noté : « je pense que nous pourrions voir l’AGI dans les prochaines années, peut-être d’ici 2030 ».

Mais Satya Nadella, PDG de Microsoft, et Yann LeCun affirment que « l'AGI n'est pas pour tout de suite ». Yann LeCun, co-inventeur de l'apprentissage profond moderne et lauréat du prix Turing 2019, critique la croyance selon laquelle des modèles de langage puissent aboutir à une véritable intelligence générale. En janvier 2024, il expliquait : « les modèles d'IA actuels sont très loin de l’AGI. Ils ne comprennent pas, ne raisonnent pas, ne planifient pas ».

Dwarkesh Patel, qui anime Dwarkesh Podcast, est récemment revenu sur ses nombreux entretiens portant sur la date estimée de l'arrivée de l'AGI. Dans cet épisode, publié début juillet 2025, il a expliqué pourquoi il reste sceptique quant à une AGI imminente. « L'AGI n'est pas à portée de main », a-t-il déclaré.

Les limites importantes des grands modèles de langage aujourd'hui

Dans son analyse, Dwarkesh Patel reconnaît la puissance des systèmes d'IA modernes ; ces systèmes excellent notamment dans les tâches individuelles. Mais il souligne une faiblesse majeure : « leur absence d’apprentissage organique et continu ». Contrairement aux humains, qui apprennent de leurs erreurs, contextualisent chaque tâche et s'améliorent au fil du temps, les grands modèles de langage peinent à reproduire ce type d’apprentissage.


Dwarkesh Patel a partagé son vécu en tant qu'utilisateur de ces modèles dans le cadre de son travail podcasting : correction de transcriptions, sélection de clips, rédaction d’essais. Il explique que les premiers paragraphes d’un essai générés par un modèle sont souvent médiocres, mais qu’une bonne réponse arrive seulement après intervention humaine. Cela montre la dépendance des modèles à un ajustement humain pour apprendre de manière adaptative.

Citation Envoyé par Dwarkesh Patel


Le problème fondamental est que les LLM ne s'améliorent pas avec le temps comme le ferait un être humain. L'absence d'apprentissage continu est un énorme problème. La ligne de base du LLM pour de nombreuses tâches peut être plus élevée que celle d'un humain moyen. Mais il n'y a aucun moyen de donner à un modèle un retour d'information de haut niveau. Vous êtes coincé avec les capacités que vous obtenez dans la boîte. Vous pouvez continuer à jouer avec l'invite du système. Dans la pratique, cela ne produit rien qui ressemble de près ou de loin au type d'apprentissage et d'amélioration dont les employés humains font l'expérience.

Le PDG d’Anthropic, Dario Amodei, a déclaré que l’IA est susceptible d’éliminer la moitié des emplois en col blanc dans les années à venir. Cependant, le PDG de Nvidia, Jensen Huang, s'oppose à cette prédiction. Jensen Huang explique plutôt que « les emplois de chacun seront modifiés ». Certains emplois seront obsolètes, mais de nombreux emplois seront créés. Dwarkesh Patel juge également que la prédiction du PDG d’Anthropic est trop optimiste.

Dwarkesh Patel explique : « si les progrès de l'IA s'arrêtent totalement aujourd'hui, je pense que moins de 25 % des emplois de cols blancs disparaîtront. Bien sûr, de nombreuses tâches seront automatisées. Claude 4 Opus peut techniquement réécrire des transcriptions autogénérées pour moi. Mais comme il n'est pas possible pour moi de faire en sorte qu'il s'améliore au fil du temps et apprenne mes préférences, j'embauche toujours un humain pour cela ».

Il juge trop ambitieuse l'idée d’un modèle capable de s’autocorriger via l'apprentissage par renforcement. Il souligne les défis de généralisation au-delà d’un domaine spécifique et doute qu’une solution efficace émerge dans quelques années seulement, faute de mécanismes intégrés de mise à jour continue.

L'AGI : un concept nébuleux où chaque acteur a sa propre définition

Dwarkesh Patel ne rejette pas l’idée selon laquelle l’AGI peut émerger au cours de cette décennie. Au contraire, il pense que cela pourrait arriver avant 2032. Mais il estime qu’il reste des verrous fondamentaux, en particulier l’absence d’apprentissage continu (la capacité d’un modèle à apprendre au fil de ses expériences). Cependant, de nombreux critiques rejettent cette déclaration, affirmant que « l'AGI reste un concept nébuleux qui ne verra jamais le jour ».


En effet, l'industrie de l'IA n'est toujours pas tombée d'accord sur une définition unique de ce qu'est l'AGI. Chaque entreprise a sa propre définition. Début avril 2025, Google DeepMind a publié un document dans lequel il définit l'AGI comme « un système capable d'égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l'apprentissage de nouvelles compétences ».

Selon un rapport de The Information, OpenAI et Microsoft définissent l'AGI comme « un système d'IA pouvant générer jusqu'à 100 milliards de dollars de bénéfices », ce qui semble totalement éloigné de toute référence scientifique. Le rapport cite un document de 2023 émanant des deux entreprises. Il suggère que l'AGI, telle que beaucoup l'imaginent, est un objectif irréaliste et révèle surtout qu'OpenAI est aujourd'hui plus intéressé par les profits.

« Quiconque prétend qu'un concept mal défini, l'AGI, est sur le point de voir le jour est très probablement en train d'essayer de vendre quelque chose ou simplement se faire entendre », a écrit un critique. En outre, une étude d'Apple a remis en question les progrès vantés par OpenAI, Google et Anthropic en matière de raisonnement des modèles d'IA. Selon le rapport, la précision de cette technique s'effondre entièrement face à des problèmes complexes.

Les plus sceptiques pensent que les machines n'atteindront jamais ce niveau. En mars 2025, une enquête a révélé que la majorité des chercheurs en IA estiment que l'industrie technologique déverse des milliards dans une impasse. Environ 76 % d'entre eux estiment qu'il est « peu probable » ou « très peu probable » que l'augmentation de la puissance de calcul et des données des grands modèles de langage (LLM) actuels conduise à une AGI à l'avenir.

Une AGI d'ici la fin de la décennie ? Les experts restent sceptiques

Selon Dwarkesh Patel, lorsque nous parviendrons à résoudre le problème de l'apprentissage continu, nous assisterons à une énorme discontinuité dans la valeur des modèles d'IA. « Même s'il n'y a pas de singularité logicielle (les modèles construisant rapidement des systèmes successeurs de plus en plus intelligents), nous pourrions tout de même assister à quelque chose qui ressemble à une explosion de l'intelligence déployée à grande échelle », a-t-il déclaré.


Yann LeCun a déclaré que l'AGI est inévitable, mais n'arrivera pas de sitôt et qu'elle ne sera pas uniquement l'œuvre des modèles actuels. Selon lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. Selon Dwarkesh Patel, si certains sont trop pessimistes, c'est parce qu'ils n'ont pas joué avec les modèles d'IA les plus avancés.

En résumé, pour Dwarkesh Patel : l’AGI n’est pas une illusion, mais penser qu’elle va arriver dans un ou deux ans relève du fantasme. Il estime qu’il reste des verrous fondamentaux, et que ces problèmes pourraient être résolus d'ici à 2032. Dwarkesh Patel liste deux étapes-clés comme repères :

  1. d’ici 2028 : il pense qu’une IA pourrait être capable d’exécuter des tâches complexes du monde réel, comme faire toute la comptabilité personnelle d’une personne (collecte de documents, échanges avec le fisc, remplissage de formulaires, etc.) avec l’efficacité d’un bon manager ;
  2. d’ici 2032 : il imagine qu’on pourrait enfin avoir des modèles capables d’apprendre au fur et à mesure qu’ils sont utilisés, de se corriger, de progresser avec l’expérience — en clair, une IA qui s’améliore en travaillant, un peu comme un assistant humain.


Conclusion

L'AGI est un sujet quelque peu controversé dans le domaine de l'IA, les critiques suggérant qu'il ne s'agit que d'une chimère. « L'AGI est un mensonge. L'intelligence artificielle générale n'existe pas », a déclaré Dana Blankenhorn, journaliste technologique. Il estime que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie.

Les prédictions autour de l’AGI sont aujourd’hui profondément divisées entre enthousiasme et scepticisme mesuré. D’un côté, des figures comme Sam Altman, Elon Musk ou Mark Zuckerberg annoncent une AGI d’ici quelques années, parfois dès 2025, en s’appuyant sur la puissance croissante des modèles et des investissements massifs. De l’autre, des voix plus techniques comme Dwarkesh Patel, Satya Nadella ou Yann LeCun rappellent une réalité plus brute :

« Les modèles actuels, aussi impressionnants soient-ils, n’apprennent pas comme les humains. Ils ne comprennent pas, n’apprennent pas par expérience, ne généralisent pas bien. Et tant qu’ils n’auront pas surmonté ce goulot d’étranglement de l’apprentissage continu, l’AGI restera un objectif, pas un fait ».

Par ailleurs, en jetant un froid sur les promesses du raisonnement par l'IA, Apple ne se contente pas de critiquer ses concurrents. La firme de Cupertino soulève des questions fondamentales sur la trajectoire actuelle de l'IA et invite à une réflexion plus approfondie sur les défis qui restent à surmonter pour que la machine puisse un jour véritablement « penser ». Le rapport d'Apple renforce les doutes sur les capacités de l'industrie à atteindre une forme d'AGI.

Source : billet de blogue

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des limites des modèles d'IA relevées par Dwarkesh Patel ?
Selon vous, l'AGI est-il un objectif atteignable pour l'industrie technologique ? Pourquoi ?

Voir aussi

Une étude d'Apple remet en question les progrès en «raisonnement» IA vantés par OpenAI, Google et Anthropic : leurs LRM subissent un « effondrement complet de leur précision » face à des problèmes complexes

Google DeepMind recrute un chercheur scientifique « post-AGI » afin d'étudier l'impact profond que cette technologie aura sur la société, sans apporter la preuve qu'il est sur le point de parvenir à une AGI

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques
Vous avez lu gratuitement 8 670 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 22/10/2025 à 11:19
Citation Envoyé par Ryu2000 Voir le message

Il y a énormément d'argent qui est investit dans la recherche et le développement, on ne peut pas savoir quelles avancées technologiques auront lieu.
Le cerveau humaine reste et restera pour les prochaines années un mystère.

Donc dupliquer cela d'une quelconque manière que ce soit semble une fiction...

On simule un tant soit peu intelligence humaine pour les non initiés et pof c'est magique, dans 2 semaines on va se faire remplacé par une IA. Mais quand on scrute un peu en profondeur ... Bon voila quoi
4  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 22/10/2025 à 10:25
Salut à tous.

Ce n'est pas que c'est réducteur, mais personne ne sait ce qu'est l'intelligence et encore moins la conscience.
Débattre de ce que l'on ignore revient à parler dans le vide.

Une IA ne fait que récupérer des informations, là où elle les trouve, c'est-à-dire sur le net. Elle est incapable de faire un raisonnement complexe de type humain car elle ne possède pas l'intuition et encore moins de l'imagination. Elle peut faire des associations d'idées tout au plus, mais elle ne pourra jamais produire un savoir car elle n'est pas capable de l'expérimenter. Observer, réfléchir puis déduire quelque chose est le propre de l'être intelligent car à la base, il y a un étonnement de la chose observée.

@ Gigi75 : définissez moi ce qu'est la conscience ? Je ne veux pas d'une définition trouvée sur le net, mais de la façon dont vous la percevez.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 08/07/2025 à 15:34
En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025
Bon, ben, si Elon Musk le dit, c'est qu'on est pas prêt d'avoir une AGI !
2  0 
Avatar de tatayo
Expert éminent sénior https://www.developpez.com
Le 22/10/2025 à 7:23
Bonjour,
Citation Envoyé par Gigi75 Voir le message
Les deux composantes essentiels du vivant sont la conscience de soi-même qui est un corollaire de la vie...
Ça me parait un peu réducteur.
Soit une plante a conscience d'elle même, soit elle n'est pas vivante.
Tout comme une bactérie ou un champignon.

Tatayo.
3  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 08/07/2025 à 18:10
Les llm sont tres mauvais pour notre futur, dans le sens ou elles sont limités au contenus produit par des humains.
Sauf que le web se fait de plus en plus polluer par des contenus généré par ia, qui n'apporte rien. Voir dans le dev par exemple la baisse des questions/réponses sur stackoverflow.

Va falloir que les nouvelles libs et technos soit rétro compatible avec les bouts de code pondu par les ia
ou coder des docs adaptés aux llm, mais bon la plupart des projets n'ont pas de docs et ceux qui en ont sont souvent des foutoirs super mal fait et pas mis a jours. Rare sont les projets avec une bonne doc a jours et de qualité.
J'ai encore trouvé des trucs faux dans rabbitmq aujourd'hui par exemple.

Les boites embauches moins de juniors, je crois avoir vu une stat avec une baise de 50%, il va y avoir un gros trou dans 20ans pour trouver des ingénieurs compétents.

Bref il faut combattre le futur


J'ai déjà bossé sur des algo évolutionniste, je pense qu'il doit être possible de lié des llms a des algos génétique par exemple pour arriver a créer/concevoir des solutions. Et ensuite re entrainer les llms avec les solutions trouvés.
Les algo génétique ca trouve toujours la meilleur solution, mais en contre partie sa demande un nombre énorme d'itération, ce serait pas rentable avec des llms.

Ou sinon plus simplement embaucher des hordes d'indonésiens/afghans/pakistanais...pays_pas_cher_random pour générer des jeux de données. Mais ce système a aussi ces limites, pour les choses basique ca marche, mais pour les domaines de pointe et complexe, c'est pas le type payer pas cher en Indonésie qui pourra générer un bon dataset.

Enfin, en 2025 les boites se sont adaptés aux ia, désormais plus question de fournir gratuitement le contenus à ces boites, souvent les sites de qualités ont des paywall/bloque les bots/limite les requêtes par jours pour éviter que chatgpt viennent tous piller le contenus en 1 nuit.
Et je pense qu'a terme beaucoup d'artistes et d'ingénieurs vont boycotter les sites de pillage. Les artistes commence déja a fuir la platefrome de Adobe qui vol leurs travails pour entrainer leurs ia, et les dev peuvent très bien fuir github dans le futur.
Il existe aussi pour les photos des techniques pour empêcher l'ia de s'entrainer dessus (Filtres de perturbation adversariale), mais je ne sais pas ce que ça vaut concrètement, surement il existe déja des contre mesure...
Si les artistes veulent pas se faire grand remplacer c'est dans leurs intérêt de toute façon d’empêcher les ia de pomper sur leurs photos.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 08/07/2025 à 18:40
Le problème des algorithmes génétiques est qu’il faut des critères d’évaluation, chose que l’on n’a pas pour des réponse en language naturel à des questions posées en language naturel.

J’imagine pour la programmation des critères d’évaluation issu de logiciels assurant de preuve (Coq, Isabelle…) l’idée serait de demander au LLM du code avec la preuve de conformité aux spécifications… le logiciel de preuve vérifie les preuves, et le cas échéant renvoie au LLM une demande de correction d’incohérences.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 09/07/2025 à 22:03
Citation Envoyé par Artemus24 Voir le message
Tu supposes, plus que d'affirmer, qu'à partir d'un certain niveau de profondeur dans l'expertise, une forme d'intelligence va se dégager ?
J'ai toujours dit le contraire : qu'on aura beau pousser la performance à fond dans une ou plusieurs expertises, ce n'est pas ça qui donnera de l'intelligence. Pour se recentrer sur la phrase que tu cites et la reformuler :
  • la mesure de l'expertise dans un domaine, c'est la quantité de savoir et de savoir faire pertinent pour ce domaine en fonction du temps.
  • la mesure de l'intelligence, ça peut être considéré comme la somme sur l'ensemble des expertises de leurs dérivées : à ressources égales, un individu plus intelligent peut augmenter plus rapidement son savoir et son savoir faire, quel que soit le domaine

L'expertise dans un ou plusieurs domaines ne représente donc pas l'intelligence de l'individu. L'efficacité avec laquelle il arrive à obtenir cette expertise est plus parlante.

Citation Envoyé par Artemus24 Voir le message
Mon approche est qu'une IA n'aura jamais la capacité de prendre du recule sur ce qu'elle fait et sera dans l'incapacité de se corriger, c'est-à-dire d'analyser sa démarche afin de comprendre le cheminement entrepris et de trouver d'autres voies.
C'est vrai avec les LLM. Mais il y a des chances que ça fasse partie des prochaines générations d'IA avec ce qui se prépare dans les cartons. Yann Lecun est à suivre de ce côté là.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 09/07/2025 à 22:24
Il y a une forme d’intelligence ; les IA savent faire une analyse grammaticale d’une phrase quelconque alors qu’il est très peu probable qu’elle ait appris avec la phrase proposée. Elle est capable de poser un calcul (combien coute 5W d’électricité sur une année…) elle est peut-être basique, comparable à la réflexion rapide par rapport aux 2 systèmes de pensée de Kahneman, alors que pour prendre du recul, il faudrait une réflexion lente.

D’ailleurs, pour pas mal de chose on réfléchi instinctivement, sans être capable de prendre du recul sur ce que l’on vient de faire.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 09/07/2025 à 22:37
Citation Envoyé par floyer Voir le message
Il y a une forme d’intelligence
Le problème se situe sur cette phrase, notamment le fait qu'elle soit vague. Qu'appelles-tu "intelligence" ?

Il n'y a pas de consensus et cet état de fait est ce qui permet d'utiliser ce terme à toutes les sauces. Les discussions sérieuses sur le sujet prennent a minima le soin de définir ce terme d'une manière ou d'une autre. Les discussions où cet effort n'est pas fait partent majoritairement en cacahuètes, justement car il n'y a pas de consensus et donc chacun s'imagine quelque chose de différent, notamment incompatible avec ce que dit l'autre, d'où le désaccord insolvable jusqu'à ce que les gens prennent la peine de définir leur terme, leur permettant de se rendre compte à quel point ils ne parlaient pas de la même chose.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 10/07/2025 à 0:02
Intelligence, s’adapter à quelque chose de nouveau et imprévu.

Les LLM ne sont pas développés pour « comprendre » le contenu d’internet (les LLM n’ont pas appris le français ou l’anglais), ni pour faire des analyses grammaticales. Et pourtant, on leur ingurgite internet, et il y a une sorte de compréhension qui lui permet d’apprendre depuis ce corpus à faire des analyses grammaticales.

Et en écrivant « une forme d’intelligence », je sous-entends que l’intelligence peut prendre plusieurs formes

Mais effectivement, IA est un terme accrocheur, qui peut être pris pour plein de chose (j’ai vu une présentation où on parlait d’IA alors qu’il n’était question que d’algorithme génétique). Deep Learning, et LLM ont en revanche des sens plus cadrés.
1  0