Une nouvelle étude remet en question l'intelligence apparente des grands modèles de langage (LLM). Elle rappelle que malgré toute la complexité supposée de l'IA générative, il s'agit en réalité, à la base, de modèles de langage. Mais les acteurs de l’industrie de l’IA confondent la capacité à produire du langage fluide avec la présence d’une véritable intelligence. Selon les chercheurs, le langage n’est qu’un outil de communication chez l’humain, et non la structure principale de la pensée. Penser n’est pas parler : la cognition humaine implique également des perceptions et des raisonnements non verbaux, des dimensions auxquelles les modèles de langage n’ont pas accès.« Le développement de la superintelligence est désormais à portée de main », selon Mark Zuckerberg, PDG de Meta. Dario Amodei, PDG d'Anthropic, prédit : « une IA puissante pourrait voir le jour dès 2026 et sera plus intelligente qu'un lauréat du prix Nobel dans la plupart des domaines pertinents ». Dario Amodei promet le doublement de la durée de vie humaine, voire une « vitesse d'échappement » permettant d'échapper à la mort elle-même.
Sam Altman, PDG d'OpenAI, va plus loin : « nous sommes désormais convaincus de savoir comment construire une AGI et bientôt, une IA superintelligent pourrait accélérer massivement les découvertes scientifiques et l'innovation bien au-delà de ce que nous sommes capables de faire par nous-mêmes ».
Devrions-nous les croire ? Les scientifiques n'en sont pas si sûrs. Ces déclarations tonitruantes tombent à l'eau lorsque nous regardons ce que la science sait de l'intelligence humaine et que nous nous examinons les systèmes d'IA que ces entreprises ont produits jusqu'à présent. Selon les scientifiques, l'IA générative, basée sur les grands modèles de langage (LLM), excelle dans la production du langage, mais cela ne signifie pas qu'elle est intelligente.
La caractéristique commune à tous les chatbots tels que ChatGPT, c'est qu'ils sont tous principalement des LLM. Fondamentalement, ils reposent sur la collecte d'une quantité extraordinaire de données linguistiques (dont une grande partie est codifiée sur Internet), la recherche de corrélations entre les mots (plus précisément des sous-mots appelés « tokens » (jeton)) et la prédiction de la réponse qui devrait suivre un prompt particulier donné en entrée.
Le problème est que, selon les neurosciences actuelles, la pensée humaine est largement indépendante du langage humain, et nous avons peu de raisons de croire que de grands modèles de langage toujours plus sophistiqués permettront de créer une forme d'intelligence qui égalera ou surpassera la nôtre.
L'industrie de l'IA a une fausse perception de l'intelligence humaine
Selon les experts, les humains utilisent le langage pour communiquer les résultats de leur capacité à raisonner, à former des abstractions et à faire des généralisations, ou ce que nous pourrions appeler leur intelligence. Ils utilisent le langage pour penser, mais cela ne rend pas le langage identique à la pensée. Comprendre cette distinction est essentiel pour séparer les faits scientifiques de la science-fiction spéculative des PDG enthousiastes à propos de l'IA.
La théorie selon laquelle l'industrie est sur le point de créer quelque chose d'aussi intelligent que les humains, voire une superintelligence qui éclipsera nos capacités cognitives, est gravement erronée sur le plan scientifique. Les LLM ne sont que des outils qui imitent la fonction communicative du langage, et non le processus cognitif distinct et séparé de la pensée et du raisonnement, quel que soit le nombre de centres de données que l'industrie construit.
Cette conclusion signifie que « la course effrénée vers des centres de données toujours plus gros et des modèles de langage toujours grands et sophistiqués ne conduira pas l'industrie vers une superintelligence ». Pour espérer y arriver, les acteurs de la course à l'IA doivent changer de paradigme et explorer de nouvelles architectures. Selon un récent article, un plafond mathématique cantonne l'IA générative à une créativité de niveau amateur amateur.
Les modèles d'IA actuels ne font que prédire la suite la plus probable de mots à partir de milliards d’exemples. Ils excellent dans l’imitation du style humain, mais fonctionnent sans expérience directe, sans perception sensorielle et sans compréhension intrinsèque. Ils manipulent des symboles sans relier ces symboles à une réalité vécue. De ce fait, même s’ils paraissent « intelligents », ils n’ont ni intentions, ni conscience, ni véritable modèle du monde.
Yann LeCun : « les LLM n'atteindront pas l'intelligence humaine »
« La cognition humaine s'améliore grâce au langage », mais elle n'est ni créée ni définie par celui-ci. Voici un exemple illustratif : même...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
