Une nouvelle étude remet en question l'intelligence apparente des grands modèles de langage (LLM). Elle rappelle que malgré toute la complexité supposée de l'IA générative, il s'agit en réalité, à la base, de modèles de langage. Mais les acteurs de l’industrie de l’IA confondent la capacité à produire du langage fluide avec la présence d’une véritable intelligence. Selon les chercheurs, le langage n’est qu’un outil de communication chez l’humain, et non la structure principale de la pensée. Penser n’est pas parler : la cognition humaine implique également des perceptions et des raisonnements non verbaux, des dimensions auxquelles les modèles de langage n’ont pas accès.« Le développement de la superintelligence est désormais à portée de main », selon Mark Zuckerberg, PDG de Meta. Dario Amodei, PDG d'Anthropic, prédit : « une IA puissante pourrait voir le jour dès 2026 et sera plus intelligente qu'un lauréat du prix Nobel dans la plupart des domaines pertinents ». Dario Amodei promet le doublement de la durée de vie humaine, voire une « vitesse d'échappement » permettant d'échapper à la mort elle-même.
Sam Altman, PDG d'OpenAI, va plus loin : « nous sommes désormais convaincus de savoir comment construire une AGI et bientôt, une IA superintelligent pourrait accélérer massivement les découvertes scientifiques et l'innovation bien au-delà de ce que nous sommes capables de faire par nous-mêmes ».
Devrions-nous les croire ? Les scientifiques n'en sont pas si sûrs. Ces déclarations tonitruantes tombent à l'eau lorsque nous regardons ce que la science sait de l'intelligence humaine et que nous nous examinons les systèmes d'IA que ces entreprises ont produits jusqu'à présent. Selon les scientifiques, l'IA générative, basée sur les grands modèles de langage (LLM), excelle dans la production du langage, mais cela ne signifie pas qu'elle est intelligente.
La caractéristique commune à tous les chatbots tels que ChatGPT, c'est qu'ils sont tous principalement des LLM. Fondamentalement, ils reposent sur la collecte d'une quantité extraordinaire de données linguistiques (dont une grande partie est codifiée sur Internet), la recherche de corrélations entre les mots (plus précisément des sous-mots appelés « tokens » (jeton)) et la prédiction de la réponse qui devrait suivre un prompt particulier donné en entrée.
Le problème est que, selon les neurosciences actuelles, la pensée humaine est largement indépendante du langage humain, et nous avons peu de raisons de croire que de grands modèles de langage toujours plus sophistiqués permettront de créer une forme d'intelligence qui égalera ou surpassera la nôtre.
L'industrie de l'IA a une fausse perception de l'intelligence humaine
Selon les experts, les humains utilisent le langage pour communiquer les résultats de leur capacité à raisonner, à former des abstractions et à faire des généralisations, ou ce que nous pourrions appeler leur intelligence. Ils utilisent le langage pour penser, mais cela ne rend pas le langage identique à la pensée. Comprendre cette distinction est essentiel pour séparer les faits scientifiques de la science-fiction spéculative des PDG enthousiastes à propos de l'IA.
La théorie selon laquelle l'industrie est sur le point de créer quelque chose d'aussi intelligent que les humains, voire une superintelligence qui éclipsera nos capacités cognitives, est gravement erronée sur le plan scientifique. Les LLM ne sont que des outils qui imitent la fonction communicative du langage, et non le processus cognitif distinct et séparé de la pensée et du raisonnement, quel que soit le nombre de centres de données que l'industrie construit.
Cette conclusion signifie que « la course effrénée vers des centres de données toujours plus gros et des modèles de langage toujours grands et sophistiqués ne conduira pas l'industrie vers une superintelligence ». Pour espérer y arriver, les acteurs de la course à l'IA doivent changer de paradigme et explorer de nouvelles architectures. Selon un récent article, un plafond mathématique cantonne l'IA générative à une créativité de niveau amateur amateur.
Les modèles d'IA actuels ne font que prédire la suite la plus probable de mots à partir de milliards d’exemples. Ils excellent dans l’imitation du style humain, mais fonctionnent sans expérience directe, sans perception sensorielle et sans compréhension intrinsèque. Ils manipulent des symboles sans relier ces symboles à une réalité vécue. De ce fait, même s’ils paraissent « intelligents », ils n’ont ni intentions, ni conscience, ni véritable modèle du monde.
Yann LeCun : « les LLM n'atteindront pas l'intelligence humaine »
« La cognition humaine s'améliore grâce au langage », mais elle n'est ni créée ni définie par celui-ci. Voici un exemple illustratif : même privé de sa capacité à parler, un humain peut toujours penser, raisonner, former des croyances, tomber amoureux et évoluer dans le monde ; l'éventail de ses expériences et de ses réflexions reste vaste. Cependant, si vous retirez le langage d'un grand modèle de langage, « il ne vous reste littéralement plus rien ».
Certains membres de la communauté des chercheurs en IA partagent cet avis. Yann LeCun, lauréat du prix Turing pour ses recherches en IA et sceptique des modèles de langage, a déclaré que les grands modèles de langage n'atteindront pas l'intelligence humaine. Selon lui, ces systèmes ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante, ainsi que la compréhension du monde physique.
Il estime que ces systèmes ne peuvent même pas reproduire l'intelligence d'un chat. Yann LeCun a récemment quitté son poste chez Meta et a fondé une startup d'IA pour développer ce qu'il appelle des « modèles mondiaux » : des systèmes qui comprennent le monde physique, ont une mémoire persistante, peuvent raisonner et planifier des séquences d'actions complexes. Selon lui, il pourrait s'agir d'une voie vers une superintelligence ou l'AGI.
L’idée selon laquelle augmenter la taille des modèles suffirait à atteindre la superintelligence est scientifiquement infondée. Cette confusion a alimenté une bulle d’attentes exagérées autour de l'IA. En surestimant ce que ces systèmes peuvent faire, certains risques émergent : déléguer à ces outils des tâches critiques pour lesquelles ils ne sont pas adaptés, ou croire qu’ils comprennent alors qu’ils ne font que reproduire des corrélations linguistiques.
Récemment, un groupe d'éminents scientifiques et leaders d'opinion dans le domaine de l'IA, dont Yoshua Bengio (également lauréat du prix Turing), l'ancien PDG de Google Eric Schmidt et Gary Marcus, célèbre sceptique de l'IA, se sont mis d'accord sur une définition pratique de l'AGI.
Plutôt que de traiter l'intelligence comme une « capacité monolithique », ils proposent d'adopter un modèle de cognition humaine et artificielle qui reflète « une architecture complexe composée de nombreuses capacités distinctes ». Est-ce un progrès ? Selon certains observateurs, cela pourrait être considéré comme une avancée s'il éloigne l'industrie de la quête absurde de données d'entraînement supplémentaires à introduire dans les racks de serveurs.
Mais certains problèmes subsistent. Pouvons-nous vraiment agréger les capacités cognitives individuelles et considérer que le résultat obtenu correspond à l'intelligence générale ? Comment définir les pondérations à leur attribuer, ainsi que les capacités à inclure et à exclure ?
La bulle des investissements dans l'IA a dépassé un seuil raisonnable
Les investisseurs s'inquiètent de plus en plus des actions liées à l'IA et du risque de bulle spéculative. Ils sont surtout préoccupés par le rythme effréné et par l’ampleur du financement consacré aux investissements liés à l’IA. Selon une enquête mondiale menée par Bank of America auprès des gestionnaires de fonds entre le 7 et le 13 novembre 2025, les investisseurs ont averti que les entreprises « surinvestissent » pour la première fois en deux décennies.
L'enquête, menée auprès de 202 panélistes gérant 550 milliards de dollars d'actifs sous gestion, a révélé que 20 % des gestionnaires de fonds estiment désormais que les entreprises déploient leurs capitaux de manière trop agressive, un sentiment qui n'avait pas été observé depuis août 2005. Selon Bank of America Research, ce changement...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
