IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'AGI n'est pas à portée de main. L'incapacité des modèles d'IA actuels à apprendre de façon autonome et continue, comme les humains, freine leur évolution vers une superintelligence »,
Selon un critique

Le , par Mathis Lucas

26PARTAGES

7  0 
« L'AGI n'est pas à portée de main. L'incapacité des modèles d’IA actuels à apprendre de façon autonome et continue, comme les humains, freine leur évolution vers une superintelligence »
selon un critique

Les systèmes d'IA actuels se heurtent à des limites majeures dans l'automatisation du travail. Pour certains, cela est lié à leur incapacité à apprendre en continu comme le font les humains. Yann LeCun, responsable de l'IA chez Meta, a déclaré que les grands modèles de langage (LLM) actuels n'atteindront pas l'intelligence humaine et ne conduiront pas l'intelligence artificielle générale (AGI). Leur incapacité à construire un contexte, apprendre à partir de retours d'information ou s'améliorer au fil du temps comme le font les employés humains remettent en causes les discours enthousiastes selon lesquels l'AGI arrivera à la fin de la décennie, voire plus tôt.

Les prédictions audacieuses sur l'arrivée de l'AGI sont nombreuses. En mars 2023, Sam Altman, PDG d’OpenAI, a déclaré à plusieurs reprises que l'AGI pourrait apparaître d’ici à 2027. En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025. Peut-être même plus tôt ». En mai 2024, Demis Hassabis, PDG de Google DeepMind, a noté : « je pense que nous pourrions voir l’AGI dans les prochaines années, peut-être d’ici 2030 ».

Mais Satya Nadella, PDG de Microsoft, et Yann LeCun affirment que « l'AGI n'est pas pour tout de suite ». Yann LeCun, co-inventeur de l'apprentissage profond moderne et lauréat du prix Turing 2019, critique la croyance selon laquelle des modèles de langage puissent aboutir à une véritable intelligence générale. En janvier 2024, il expliquait : « les modèles d'IA actuels sont très loin de l’AGI. Ils ne comprennent pas, ne raisonnent pas, ne planifient pas ».

Dwarkesh Patel, qui anime Dwarkesh Podcast, est récemment revenu sur ses nombreux entretiens portant sur la date estimée de l'arrivée de l'AGI. Dans cet épisode, publié début juillet 2025, il a expliqué pourquoi il reste sceptique quant à une AGI imminente. « L'AGI n'est pas à portée de main », a-t-il déclaré.

Les limites importantes des grands modèles de langage aujourd'hui

Dans son analyse, Dwarkesh Patel reconnaît la puissance des systèmes d'IA modernes ; ces systèmes excellent notamment dans les tâches individuelles. Mais il souligne une faiblesse majeure : « leur absence d’apprentissage organique et continu ». Contrairement aux humains, qui apprennent de leurs erreurs, contextualisent chaque tâche et s'améliorent au fil du temps, les grands modèles de langage peinent à reproduire ce type d’apprentissage.


Dwarkesh Patel a partagé son vécu en tant qu'utilisateur de ces modèles dans le cadre de son travail podcasting : correction de transcriptions, sélection de clips, rédaction d’essais. Il explique que les premiers paragraphes d’un essai générés par un modèle sont souvent médiocres, mais qu’une bonne réponse arrive seulement après intervention humaine. Cela montre la dépendance des modèles à un ajustement humain pour apprendre de manière adaptative.

Citation Envoyé par Dwarkesh Patel


Le problème fondamental est que les LLM ne s'améliorent pas avec le temps comme le ferait un être humain. L'absence d'apprentissage continu est un énorme problème. La ligne de base du LLM pour de nombreuses tâches peut être plus élevée que celle d'un humain moyen. Mais il n'y a aucun moyen de donner à un modèle un retour d'information de haut niveau. Vous êtes coincé avec les capacités que vous obtenez dans la boîte. Vous pouvez continuer à jouer avec l'invite du système. Dans la pratique, cela ne produit rien qui ressemble de près ou de loin au type d'apprentissage et d'amélioration dont les employés humains font l'expérience.

Le PDG d’Anthropic, Dario Amodei, a déclaré que l’IA est susceptible d’éliminer la moitié des emplois en col blanc dans les années à venir. Cependant, le PDG de Nvidia, Jensen Huang, s'oppose à cette prédiction. Jensen Huang explique plutôt que « les emplois de chacun seront modifiés ». Certains emplois seront obsolètes, mais de nombreux emplois seront créés. Dwarkesh Patel juge également que la prédiction du PDG d’Anthropic est trop optimiste.

Dwarkesh Patel explique : « si les progrès de l'IA s'arrêtent totalement aujourd'hui, je pense que moins de 25 % des emplois de cols blancs disparaîtront. Bien sûr, de nombreuses tâches seront automatisées. Claude 4 Opus peut techniquement réécrire des transcriptions autogénérées pour moi. Mais comme il n'est pas possible pour moi de faire en sorte qu'il s'améliore au fil du temps et apprenne mes préférences, j'embauche toujours un humain pour cela ».

Il juge trop ambitieuse l'idée d’un modèle capable de s’autocorriger via l'apprentissage par renforcement. Il souligne les défis de généralisation au-delà d’un domaine spécifique et doute qu’une solution efficace émerge dans quelques années seulement, faute de mécanismes intégrés de mise à jour continue.

L'AGI : un concept nébuleux où chaque acteur a sa propre définition

Dwarkesh Patel ne rejette pas l’idée selon laquelle l’AGI peut émerger au cours de cette décennie. Au contraire, il pense que cela pourrait arriver avant 2032. Mais il estime qu’il reste des verrous fondamentaux, en particulier l’absence d’apprentissage continu (la capacité d’un modèle à apprendre au fil de ses expériences). Cependant, de nombreux critiques rejettent cette déclaration, affirmant que « l'AGI reste un concept nébuleux qui ne verra jamais le jour ».


En effet, l'industrie de l'IA n'est toujours pas tombée d'accord sur une définition unique de ce qu'est l'AGI. Chaque entreprise a sa propre définition. Début avril 2025, Google DeepMind a publié un document dans lequel il définit l'AGI comme « un système capable d'égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l'apprentissage de nouvelles compétences ».

Selon un rapport de The Information, OpenAI et Microsoft définissent l'AGI comme « un système d'IA pouvant générer jusqu'à 100 milliards de dollars de bénéfices », ce qui semble totalement éloigné de toute référence scientifique. Le rapport cite un document de 2023 émanant des deux entreprises. Il suggère que l'AGI, telle que beaucoup l'imaginent, est un objectif irréaliste et révèle surtout qu'OpenAI est aujourd'hui plus intéressé par les profits.

« Quiconque prétend qu'un concept mal défini, l'AGI, est sur le point de voir le jour est très probablement en train d'essayer de vendre quelque chose ou simplement se faire entendre », a écrit un critique. En outre, une étude d'Apple a remis en question les progrès vantés par OpenAI, Google et Anthropic en matière de raisonnement des modèles d'IA. Selon le rapport, la précision de cette technique s'effondre entièrement face à des problèmes complexes.

Les plus sceptiques pensent que les machines n'atteindront jamais ce niveau. En mars 2025, une enquête a révélé que la majorité des chercheurs en IA estiment que l'industrie technologique déverse des milliards dans une impasse. Environ 76 % d'entre eux estiment qu'il est « peu probable » ou « très peu probable » que l'augmentation de la puissance de calcul et des données des grands modèles de langage (LLM) actuels conduise à une AGI à l'avenir.

Une AGI d'ici la fin de la décennie ? Les experts restent sceptiques

Selon Dwarkesh Patel, lorsque nous parviendrons à résoudre le problème de l'apprentissage continu, nous assisterons à une énorme discontinuité dans la valeur des modèles d'IA. « Même s'il n'y a pas de singularité logicielle (les modèles construisant rapidement des systèmes successeurs de plus en plus intelligents), nous pourrions tout de même assister à quelque chose qui ressemble à une explosion de l'intelligence déployée à grande échelle », a-t-il déclaré.


Yann LeCun a déclaré que l'AGI est inévitable, mais n'arrivera pas de sitôt et qu'elle ne sera pas uniquement l'œuvre des modèles actuels. Selon lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. Selon Dwarkesh Patel, si certains sont trop pessimistes, c'est parce qu'ils n'ont pas joué avec les modèles d'IA les plus avancés.

En résumé, pour Dwarkesh Patel : l’AGI n’est pas une illusion, mais penser qu’elle va arriver dans un ou deux ans relève du fantasme. Il estime qu’il reste des verrous fondamentaux, et que ces problèmes pourraient être résolus d'ici à 2032. Dwarkesh Patel liste deux étapes-clés comme repères :

  1. d’ici 2028 : il pense qu’une IA pourrait être capable d’exécuter des tâches complexes du monde réel, comme faire toute la comptabilité personnelle d’une personne (collecte de documents, échanges avec le fisc, remplissage de formulaires, etc.) avec l’efficacité d’un bon manager ;
  2. d’ici 2032 : il imagine qu’on pourrait enfin avoir des modèles capables d’apprendre au fur et à mesure qu’ils sont utilisés, de se corriger, de progresser avec l’expérience — en clair, une IA qui s’améliore en travaillant, un peu comme un assistant humain.


Conclusion

L'AGI est un sujet quelque peu controversé dans le domaine de l'IA, les critiques suggérant qu'il ne s'agit que d'une chimère. « L'AGI est un mensonge. L'intelligence artificielle générale n'existe pas », a déclaré Dana Blankenhorn, journaliste technologique. Il estime que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie.

Les prédictions autour de l’AGI sont aujourd’hui profondément divisées entre enthousiasme et scepticisme mesuré. D’un côté, des figures comme Sam Altman, Elon Musk ou Mark Zuckerberg annoncent une AGI d’ici quelques années, parfois dès 2025, en s’appuyant sur la puissance croissante des modèles et des investissements massifs. De l’autre, des voix plus techniques comme Dwarkesh Patel, Satya Nadella ou Yann LeCun rappellent une réalité plus brute :

« Les modèles actuels, aussi impressionnants soient-ils, n’apprennent pas comme les humains. Ils ne comprennent pas, n’apprennent pas par expérience, ne généralisent pas bien. Et tant qu’ils n’auront pas surmonté ce goulot d’étranglement de l’apprentissage continu, l’AGI restera un objectif, pas un fait ».

Par ailleurs, en jetant un froid sur les promesses du raisonnement par l'IA, Apple ne se contente pas de critiquer ses concurrents. La firme de Cupertino soulève des questions fondamentales sur la trajectoire actuelle de l'IA et invite à une réflexion plus approfondie sur les défis qui restent à surmonter pour que la machine puisse un jour véritablement « penser ». Le rapport d'Apple renforce les doutes sur les capacités de l'industrie à atteindre une forme d'AGI.

Source : billet de blogue

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des limites des modèles d'IA relevées par Dwarkesh Patel ?
Selon vous, l'AGI est-il un objectif atteignable pour l'industrie technologique ? Pourquoi ?

Voir aussi

Une étude d'Apple remet en question les progrès en «raisonnement» IA vantés par OpenAI, Google et Anthropic : leurs LRM subissent un « effondrement complet de leur précision » face à des problèmes complexes

Google DeepMind recrute un chercheur scientifique « post-AGI » afin d'étudier l'impact profond que cette technologie aura sur la société, sans apporter la preuve qu'il est sur le point de parvenir à une AGI

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques
Vous avez lu gratuitement 1 227 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 08/07/2025 à 15:34
En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025
Bon, ben, si Elon Musk le dit, c'est qu'on est pas prêt d'avoir une AGI !
2  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 08/07/2025 à 18:10
Les llm sont tres mauvais pour notre futur, dans le sens ou elles sont limités au contenus produit par des humains.
Sauf que le web se fait de plus en plus polluer par des contenus généré par ia, qui n'apporte rien. Voir dans le dev par exemple la baisse des questions/réponses sur stackoverflow.

Va falloir que les nouvelles libs et technos soit rétro compatible avec les bouts de code pondu par les ia
ou coder des docs adaptés aux llm, mais bon la plupart des projets n'ont pas de docs et ceux qui en ont sont souvent des foutoirs super mal fait et pas mis a jours. Rare sont les projets avec une bonne doc a jours et de qualité.
J'ai encore trouvé des trucs faux dans rabbitmq aujourd'hui par exemple.

Les boites embauches moins de juniors, je crois avoir vu une stat avec une baise de 50%, il va y avoir un gros trou dans 20ans pour trouver des ingénieurs compétents.

Bref il faut combattre le futur


J'ai déjà bossé sur des algo évolutionniste, je pense qu'il doit être possible de lié des llms a des algos génétique par exemple pour arriver a créer/concevoir des solutions. Et ensuite re entrainer les llms avec les solutions trouvés.
Les algo génétique ca trouve toujours la meilleur solution, mais en contre partie sa demande un nombre énorme d'itération, ce serait pas rentable avec des llms.

Ou sinon plus simplement embaucher des hordes d'indonésiens/afghans/pakistanais...pays_pas_cher_random pour générer des jeux de données. Mais ce système a aussi ces limites, pour les choses basique ca marche, mais pour les domaines de pointe et complexe, c'est pas le type payer pas cher en Indonésie qui pourra générer un bon dataset.

Enfin, en 2025 les boites se sont adaptés aux ia, désormais plus question de fournir gratuitement le contenus à ces boites, souvent les sites de qualités ont des paywall/bloque les bots/limite les requêtes par jours pour éviter que chatgpt viennent tous piller le contenus en 1 nuit.
Et je pense qu'a terme beaucoup d'artistes et d'ingénieurs vont boycotter les sites de pillage. Les artistes commence déja a fuir la platefrome de Adobe qui vol leurs travails pour entrainer leurs ia, et les dev peuvent très bien fuir github dans le futur.
Il existe aussi pour les photos des techniques pour empêcher l'ia de s'entrainer dessus (Filtres de perturbation adversariale), mais je ne sais pas ce que ça vaut concrètement, surement il existe déja des contre mesure...
Si les artistes veulent pas se faire grand remplacer c'est dans leurs intérêt de toute façon d’empêcher les ia de pomper sur leurs photos.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 08/07/2025 à 18:40
Le problème des algorithmes génétiques est qu’il faut des critères d’évaluation, chose que l’on n’a pas pour des réponse en language naturel à des questions posées en language naturel.

J’imagine pour la programmation des critères d’évaluation issu de logiciels assurant de preuve (Coq, Isabelle…) l’idée serait de demander au LLM du code avec la preuve de conformité aux spécifications… le logiciel de preuve vérifie les preuves, et le cas échéant renvoie au LLM une demande de correction d’incohérences.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 09/07/2025 à 22:03
Citation Envoyé par Artemus24 Voir le message
Tu supposes, plus que d'affirmer, qu'à partir d'un certain niveau de profondeur dans l'expertise, une forme d'intelligence va se dégager ?
J'ai toujours dit le contraire : qu'on aura beau pousser la performance à fond dans une ou plusieurs expertises, ce n'est pas ça qui donnera de l'intelligence. Pour se recentrer sur la phrase que tu cites et la reformuler :
  • la mesure de l'expertise dans un domaine, c'est la quantité de savoir et de savoir faire pertinent pour ce domaine en fonction du temps.
  • la mesure de l'intelligence, ça peut être considéré comme la somme sur l'ensemble des expertises de leurs dérivées : à ressources égales, un individu plus intelligent peut augmenter plus rapidement son savoir et son savoir faire, quel que soit le domaine

L'expertise dans un ou plusieurs domaines ne représente donc pas l'intelligence de l'individu. L'efficacité avec laquelle il arrive à obtenir cette expertise est plus parlante.

Citation Envoyé par Artemus24 Voir le message
Mon approche est qu'une IA n'aura jamais la capacité de prendre du recule sur ce qu'elle fait et sera dans l'incapacité de se corriger, c'est-à-dire d'analyser sa démarche afin de comprendre le cheminement entrepris et de trouver d'autres voies.
C'est vrai avec les LLM. Mais il y a des chances que ça fasse partie des prochaines générations d'IA avec ce qui se prépare dans les cartons. Yann Lecun est à suivre de ce côté là.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 09/07/2025 à 22:24
Il y a une forme d’intelligence ; les IA savent faire une analyse grammaticale d’une phrase quelconque alors qu’il est très peu probable qu’elle ait appris avec la phrase proposée. Elle est capable de poser un calcul (combien coute 5W d’électricité sur une année…) elle est peut-être basique, comparable à la réflexion rapide par rapport aux 2 systèmes de pensée de Kahneman, alors que pour prendre du recul, il faudrait une réflexion lente.

D’ailleurs, pour pas mal de chose on réfléchi instinctivement, sans être capable de prendre du recul sur ce que l’on vient de faire.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 09/07/2025 à 22:37
Citation Envoyé par floyer Voir le message
Il y a une forme d’intelligence
Le problème se situe sur cette phrase, notamment le fait qu'elle soit vague. Qu'appelles-tu "intelligence" ?

Il n'y a pas de consensus et cet état de fait est ce qui permet d'utiliser ce terme à toutes les sauces. Les discussions sérieuses sur le sujet prennent a minima le soin de définir ce terme d'une manière ou d'une autre. Les discussions où cet effort n'est pas fait partent majoritairement en cacahuètes, justement car il n'y a pas de consensus et donc chacun s'imagine quelque chose de différent, notamment incompatible avec ce que dit l'autre, d'où le désaccord insolvable jusqu'à ce que les gens prennent la peine de définir leur terme, leur permettant de se rendre compte à quel point ils ne parlaient pas de la même chose.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 10/07/2025 à 0:02
Intelligence, s’adapter à quelque chose de nouveau et imprévu.

Les LLM ne sont pas développés pour « comprendre » le contenu d’internet (les LLM n’ont pas appris le français ou l’anglais), ni pour faire des analyses grammaticales. Et pourtant, on leur ingurgite internet, et il y a une sorte de compréhension qui lui permet d’apprendre depuis ce corpus à faire des analyses grammaticales.

Et en écrivant « une forme d’intelligence », je sous-entends que l’intelligence peut prendre plusieurs formes

Mais effectivement, IA est un terme accrocheur, qui peut être pris pour plein de chose (j’ai vu une présentation où on parlait d’IA alors qu’il n’était question que d’algorithme génétique). Deep Learning, et LLM ont en revanche des sens plus cadrés.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 15/07/2025 à 18:46
"Je suis du même avis que toi, l'intelligence n'a aucun rapport avec la profondeur de l'expertise. Cette profondeur n'est que du raisonnement où plus simplement une mécanique destinée à atteindre un objectif."

Oui, l'intelligence est lié à s'adapter à quelque chose de nouveau. Là, les LLM n'ont pas été développés pour un langage particulier, néanmoins, ils ont été capables d'apprendre sur le tas (un peu comme nous) les différentes langues du corpus employé, suffisamment pour faire des résumés de texte, des analyses grammaticales entre autres. L'expertise complète l'intelligence : il y a pas mal de domaines où on ne peut pas tout deviner, surtout pour une IA qui n'a pas de "capteurs" pour connaitre le monde réel. A la limite, une IA très développée (on en est très loin) pourrait redécouvrir les mathématiques, vu qu'il ne s'agit que de constructions abstraites qui peuvent être définies sans relation avec le réel. Cependant, la construction a été inspirée par des besoins liés au réel (la définition des nombres réels est assez élaborée et n'aurait pas été définie sans besoin lié pour modéliser le réel).

"Est elle liée à la conscience ? Oui, elle en est une des composantes. Sans conscience, pas d'intelligence." Oui, l'intelligence est une composante de la conscience, mais je déduis l'inverse : Sans intelligence, pas de conscience.

"Pour qu'une IA puisse avoir une intelligence, il faudrait qu'elle ai la capacité à se projeter à l'extérieur d'elle-même pour chercher à trouver ce lien et à l'explorer.", oui, il faudrait que l'IA se "voit" penser. Les LLM se contentent d'élaborer des probabilités d’occurrences de mot, et les seules expressions de conscience ne peuvent être que le reflet du corpus. Je vois mal un LLM "inventer" ex nihilo "cogito ergo sum". J'ai tendance à me référer à l'ouvrage "Les deux systèmes de pensée" de Kahneman, où l'être humain utilise selon la situation une pensée intuitive et rapide, ou une pensée analytique et lente. J'aurais tendance à dire que les LLM sont limités à la pensée intuitive et rapide. Il faudrait une IA capable de ce mode lent pour se voir penser. (mais ce n'est pas forcément une condition suffisante).
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 15/07/2025 à 20:46
Citation Envoyé par Mathis Lucas Voir le message
Les plus sceptiques pensent que les machines n'atteindront jamais ce niveau.
Hum, je ne suis pas certain de ça.
Je pense que les plus sceptiques se doutent bien que les machines atteindront ce niveau, et se doutent bien que ça sera grave, mais se demandent jusqu'à quel point ça dépassera leurs craintes.
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 15/07/2025 à 20:55
Citation Envoyé par stigma Voir le message
on ne peut pas arrêter l'IA puisqu'elle sera l'arme ultime de Satan pour asservir l'humanité.
En effet. On ne va pas continuer à respecter son prochain, si lui planter un couteau dans le dos peut générer des bénéfices.
1  0