De nombreux vulgarisateurs et chercheurs en IA se montrent enthousiastes vis-à-vis de l'AGI et font des prédictions très optimistes sur son avènement. Rien qu'au cours des dernières semaines, un trio d'éminences grises de la technologie a ajouté de nouvelles proclamations. Jensen Huang, PDG de Nvidia, a laissé entendre que l'AGI pourrait arriver d'ici cinq ans. Ben Goertzel, expert en IA et fondateur de SingularityNET, a prédit une arrivée dans trois ans seulement. Elon Musk, PDG de la startup xAI, s'est montré beaucoup plus optimiste et a donc fait la prédiction la plus audacieuse pour le point de basculement : la fin de l'année 2025.
Mais Yann LeCun est un sceptique notable de toutes ces prédictions. Considéré comme l'un des trois "parrains de l'IA", LeCun va jusqu'à affirmer que "l'AGI n'existe pas" parce que "l'intelligence humaine est loin d'être générale". Le Français préfère tracer la voie vers une "IA de niveau humain". Lors d'un événement organisé la semaine dernière à Londres, le centre d'ingénierie phare de Meta en dehors des États-Unis, LeCun a déclaré que même cette vision restait une destination lointaine. Il a évoqué un quartet de défis cognitifs : le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.
« Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les grands modèles de langage (LLM) qui propulsent l'IA.There is no question that AI will eventually reach and surpass human intelligence in all domains.
— Yann LeCun (@ylecun) April 15, 2024
But it won't happen next year.
And it won't happen with the kind of Auto-Regressive LLMs currently in fashion (although they may constitute a component of it).…
Selon LeCun, ils sont sévèrement limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En d'autres termes, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.
LeCun affirme que les LLM ne sont pas aussi intelligents qu'ils le paraissent et remet en cause l'efficace de l'approche utilisée dans leur entraînement. Les modèles tels que LLama de Meta, GPT-4 d'OpenAI et Gemini de Google sont formés à partir d'énormes quantités de données. Selon le chercheur français, il faudrait environ 100 000 ans à un humain pour lire tout le texte ingéré par un LLM de premier plan. Mais ce n'est pas la principale méthode d'apprentissage de l'humanité, qui consomme bien plus d'informations par le biais de ses interactions avec le monde. Cela suggère en effet que l'IA a besoin d'une incarnation physique.
Les scientifiques de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions dans l'industrie et pousse certains investisseurs à investir massivement dans les entreprises d'IA qui fabriquent des robots humanoïdes à usage général.
L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publiée en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.
LeCun estime qu'un enfant de quatre ans a vu 50 fois plus de données que les plus grands spécialistes du LLM. « La plupart des connaissances humaines ne sont en fait pas du langage, de sorte que ces systèmes ne pourront jamais atteindre une intelligence de niveau humain, à moins de modifier l'architecture », affirme LeCun. Naturellement, il propose une autre architecture : "une IA guidée par les objectifs". Les modèles d'IA axés sur les objectifs sont construits pour remplir des objectifs spécifiques fixés par les humains. Plutôt que d'être nourris de texte pur, ils apprennent à connaître le monde physique grâce à des capteurs.
Leur formation sera également basée sur des données vidéo. Selon LeCun, le résultat est un "modèle du monde" qui montre l'impact des actions. Tous les changements potentiels sont ensuite mis à jour dans la mémoire du système. Quelle sera la différence, par exemple, si une chaise est poussée vers la gauche ou vers la droite d'une pièce ? En apprenant par l'expérience, les états finaux commencent à devenir prévisibles. Par conséquent, les machines peuvent planifier les étapes nécessaires à l'accomplissement de diverses tâches. LeCun est confiant quant aux résultats que pourrait produire cette nouvelle approche de l'IA.
« Les machines finiront par surpasser l'intelligence humaine, mais cela prendra du temps. Ce n'est pas pour demain, et certainement pas pour l'année prochaine, comme l'a dit notre ami Elon », a déclaré LeCun. Le responsable de l'IA chez Meta s'est montré particulièrement discret et sceptique face aux prédictions sur l'AGI. LeCun ne propose pas un calendrier sur l'avènement de l'AGI, mais invite les acteurs de l'industrie à adopter une nouvelle approche dans la quête de l'AGI et réfute certaines prédictions qu'il juge trop optimistes et parfois éloignées de la réalité. Bien sûr, ses idées ne font pas l'unanimité dans la communauté.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des critiques de Yann LeCun sur les prédictions d'Elon Musk ?
Que pensez-vous des propos de LeCun selon lesquels "l'intelligence humaine n'est pas générale" ?
Quid de l'approche qu'il propose pour atteindre une IA de niveau humain : une IA guidée par les objectifs ?
Voir aussi
Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire
Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025
Le PDG de Nvidia, Jensen Huang, affirme que les jeux entièrement générés par l'IA verront le jour d'ici 5 à 10 ans, ce qui suggère que l'IA pourrait remplacer les développeurs de jeux à l'avenir