IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM,
Il propose une piste pour créer une IA de niveau humain

Le , par Mathis Lucas

2PARTAGES

7  0 
Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, ne partage pas la dernière prédiction audacieuse d'Elon Musk selon laquelle l'IA surpassera l'intelligence humaine dès l'année prochaine. Le chercheur en IA affirme qu'une intelligence artificielle générale (AGI) est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Pour lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

De nombreux vulgarisateurs et chercheurs en IA se montrent enthousiastes vis-à-vis de l'AGI et font des prédictions très optimistes sur son avènement. Rien qu'au cours des dernières semaines, un trio d'éminences grises de la technologie a ajouté de nouvelles proclamations. Jensen Huang, PDG de Nvidia, a laissé entendre que l'AGI pourrait arriver d'ici cinq ans. Ben Goertzel, expert en IA et fondateur de SingularityNET, a prédit une arrivée dans trois ans seulement. Elon Musk, PDG de la startup xAI, s'est montré beaucoup plus optimiste et a donc fait la prédiction la plus audacieuse pour le point de basculement : la fin de l'année 2025.

Mais Yann LeCun est un sceptique notable de toutes ces prédictions. Considéré comme l'un des trois "parrains de l'IA", LeCun va jusqu'à affirmer que "l'AGI n'existe pas" parce que "l'intelligence humaine est loin d'être générale". Le Français préfère tracer la voie vers une "IA de niveau humain". Lors d'un événement organisé la semaine dernière à Londres, le centre d'ingénierie phare de Meta en dehors des États-Unis, LeCun a déclaré que même cette vision restait une destination lointaine. Il a évoqué un quartet de défis cognitifs : le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

« Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les grands modèles de langage (LLM) qui propulsent l'IA.

Selon LeCun, ils sont sévèrement limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En d'autres termes, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.

LeCun affirme que les LLM ne sont pas aussi intelligents qu'ils le paraissent et remet en cause l'efficace de l'approche utilisée dans leur entraînement. Les modèles tels que LLama de Meta, GPT-4 d'OpenAI et Gemini de Google sont formés à partir d'énormes quantités de données. Selon le chercheur français, il faudrait environ 100 000 ans à un humain pour lire tout le texte ingéré par un LLM de premier plan. Mais ce n'est pas la principale méthode d'apprentissage de l'humanité, qui consomme bien plus d'informations par le biais de ses interactions avec le monde. Cela suggère en effet que l'IA a besoin d'une incarnation physique.

Les scientifiques de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions dans l'industrie et pousse certains investisseurs à investir massivement dans les entreprises d'IA qui fabriquent des robots humanoïdes à usage général.


L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publiée en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.

LeCun estime qu'un enfant de quatre ans a vu 50 fois plus de données que les plus grands spécialistes du LLM. « La plupart des connaissances humaines ne sont en fait pas du langage, de sorte que ces systèmes ne pourront jamais atteindre une intelligence de niveau humain, à moins de modifier l'architecture », affirme LeCun. Naturellement, il propose une autre architecture : "une IA guidée par les objectifs". Les modèles d'IA axés sur les objectifs sont construits pour remplir des objectifs spécifiques fixés par les humains. Plutôt que d'être nourris de texte pur, ils apprennent à connaître le monde physique grâce à des capteurs.

Leur formation sera également basée sur des données vidéo. Selon LeCun, le résultat est un "modèle du monde" qui montre l'impact des actions. Tous les changements potentiels sont ensuite mis à jour dans la mémoire du système. Quelle sera la différence, par exemple, si une chaise est poussée vers la gauche ou vers la droite d'une pièce ? En apprenant par l'expérience, les états finaux commencent à devenir prévisibles. Par conséquent, les machines peuvent planifier les étapes nécessaires à l'accomplissement de diverses tâches. LeCun est confiant quant aux résultats que pourrait produire cette nouvelle approche de l'IA.

« Les machines finiront par surpasser l'intelligence humaine, mais cela prendra du temps. Ce n'est pas pour demain, et certainement pas pour l'année prochaine, comme l'a dit notre ami Elon », a déclaré LeCun. Le responsable de l'IA chez Meta s'est montré particulièrement discret et sceptique face aux prédictions sur l'AGI. LeCun ne propose pas un calendrier sur l'avènement de l'AGI, mais invite les acteurs de l'industrie à adopter une nouvelle approche dans la quête de l'AGI et réfute certaines prédictions qu'il juge trop optimistes et parfois éloignées de la réalité. Bien sûr, ses idées ne font pas l'unanimité dans la communauté.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des critiques de Yann LeCun sur les prédictions d'Elon Musk ?
Que pensez-vous des propos de LeCun selon lesquels "l'intelligence humaine n'est pas générale" ?
Quid de l'approche qu'il propose pour atteindre une IA de niveau humain : une IA guidée par les objectifs ?

Voir aussi

Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025

Le PDG de Nvidia, Jensen Huang, affirme que les jeux entièrement générés par l'IA verront le jour d'ici 5 à 10 ans, ce qui suggère que l'IA pourrait remplacer les développeurs de jeux à l'avenir

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 16/04/2024 à 16:38
Citation Envoyé par Denis CADIOT Voir le message
On est dans le nouveau monde pré apocalyptique de Jean-Michel Apeuprés comme chez Boeing pour le contrôle qualité et chez pas mal de journalistes superficiels qui ne vérifient pas leurs sources.
Qui envoie ces comptes-rendus sans vérifier le fond ? Ce ne doit pas être un brillant élément de l'entreprise.
Je trouve la situation plus inquiétante que ce que tu dis.
Ce n'est pas une personne qui envoie le compte rendu sans vérifier le fond,
C'est une personne qui envoie le compte rendu pour relecture, qui reçoit des corrections (notamment un problème exprimé comme tel qui devient une action- sans verbe), qui estime que les corrections ne sont pas assez significatives pour les prendre en compte et qui diffuse un compte rendu non conforme à la réunion.

Nous avons donc répondu au compte rendu en y ajoutant les corrections qui nous semblent nécessaire. Ce qui a fait un ramdam et une discussion avec nos responsables respectifs qui ne comprennent pas bien pourquoi Gérard doit faire un truc sans verbe qui ressemble plus à un problème mais qui ne veulent pas trop aller contre la dynamique qui nous fera (sans aucun doute possible - que dis-je "nous fait déjà") gagner du temps un jour.
2  0 
Avatar de Golgotha
Membre expert https://www.developpez.com
Le 19/04/2024 à 14:27
Moi j'ai une question : En quoi les IA telle que chatGPT peuvent-elles être qualifiées d'intelligente ?

Si on veux un jour se rapprocher de l'intelligence humaine, le model actuelle ne me parait en aucun cas adapté, pire que ça, il donne une fausse illusion et draine des milliards dans un domaine qui ne devrait pas allez plus loin qu'un super wikipédia. C'est sûr, c'est pratique d'avoir un google amélioré qui permet d'avoir une réponse à une question en très peu de temps mais ce n'est en rien comparable à une intelligence humaine.
3  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 19/04/2024 à 14:35
Citation Envoyé par Golgotha Voir le message
Moi j'ai une question : En quoi les IA telle que chatGPT peuvent-elles être qualifiées d'intelligente ?
Peut-être que c'est en comparaison avec l'intelligence de ceux qui s'en servent, ou de ceux qui investissent dedans...
2  0 
Avatar de fatbob
Membre éclairé https://www.developpez.com
Le 22/04/2024 à 8:56
Elon Musk est un homme d'affaire sous cocaïne qui fait des prédictions complètement farfelues à longueur de temps.
Yann Le Cun est un expert en IA depuis des décennie. Pas très difficile de choisir la source d'information la plus fiable dans le domaine.
3  1 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 20/04/2024 à 22:04
Yann LeCun raisonne en praticien, comme quelqu'un qui a fait grandir des systèmes d'intelligence artificielle et en a rendu productifs. Si il fait un peu de philosophie de temps en temps, son approche est très pragmatique et je la trouve absolument pertinente.
Lorsqu'il compare la quantité d'informations absorbée par un petit enfant et un LLM en entraînement, il a raison.
On peut aussi pour s'en faire une idée prendre une aiguille et la promener sur notre peau. Visualisons la quantité de capteurs et le volume de signaux que cette stimulation représente, et comparons le au simple flux textuel dont nous gavons les grands modèles...
Par contre je ne pense pas que l'aspect humanoïde soit prépondérant pour atteindre une intelligence proche de la notre. Pourquoi ne pas imaginer un système doté de capteurs différents, lui donnant accès à un royaume qui nous est caché ? Mais à coup sûr il est nécessaire de disposer d'un important flux d'informations, d'origines aussi diverses que possibles.
En plus, ça pourrait nous être utile...
1  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 29/04/2024 à 14:55
Citation Envoyé par Golgotha Voir le message
Moi j'ai une question : En quoi les IA telle que chatGPT peuvent-elles être qualifiées d'intelligente ?

Si on veux un jour se rapprocher de l'intelligence humaine, le model actuelle ne me parait en aucun cas adapté, pire que ça, il donne une fausse illusion et draine des milliards dans un domaine qui ne devrait pas allez plus loin qu'un super wikipédia. C'est sûr, c'est pratique d'avoir un google amélioré qui permet d'avoir une réponse à une question en très peu de temps mais ce n'est en rien comparable à une intelligence humaine.
Les mots "Intelligence artificiel" est devenu un terme galvaudé. Dans la bouche/l'encre des médias et commerciaux, Script, algorithme, programme information = IA.
1  0 
Avatar de Golgotha
Membre expert https://www.developpez.com
Le 29/04/2024 à 16:02
Citation Envoyé par bit-bang theory Voir le message
Jamais un super Wikipedia ne pourra atteindre un niveau 1500 ELO aux echecs, car une database de tous les coups possibles n'est pas envisageable en terme de mémoire.
ChatGPT atteint aujourd'hui ce niveau 1500 ELO et il a été prouvé que ce LMM intègre bien un modèle du jeu et de ses règles et est capable de jouer, de faire des choix stratégiques pour gagner comme le fait un humain dans son cerveau. Ce n'est pas juste une database.

Ne surestimez pas l'intelligence humaine. Ceux qui répètent que "ChatGPT ne fait qu'ajouter des mots, les uns après les autres de manière probabiliste"
N'est-ce pas là un fonctionnement similaire qui est à l'oeuvre quand un humain s'exprime ? franchement ?
L'IA aura t-elle le dernier ... ?
Je ne sais pas ou tu as été chercher tes données sur le potentiel de chatGPT aux echecs, mais ce que je sais et que j'ai pu recouper démontre totalement l'inverse :

Conclusion
Although ChatGPT is a powerful language model, it cannot play chess. This is because ChatGPT is a text-based model and does not have the ability to understand or interpret visual information like a board game. Additionally, playing chess requires a high level of strategic thinking and decision-making, which goes beyond the scope of ChatGPT’s capabilities.
source : https://medium.com/@ivanreznikov/how...d-35b2d3ac024a

"GPT est entraîné sur un très, très grand volume de documents à réaliser une tâche simple : prédire le mot suivant quand on lui passe un 'prompt', nous explique Antoine Saillenfest, chercheur en intelligence artificielle. En mode génératif, il produit donc un mot, puis le suivant, jusqu'à avoir produit une réponse complète. GPT est très bon pour produire du texte — c'est même tout ce qu'il sait faire — en langage naturel ou du code, parce qu'il a vu beaucoup de textes et de codes et qu'il a réussi à apprendre des éléments de structure, syntaxe, sémantique, de la langue, etc." Mais ChatGPT n'est pas doué pour produire des raisonnements complexes, ce qui nous amène au problème des échecs.
source : https://www.lesnumeriques.com/intell...r-n208092.html

Pour ce qui est de l'intelligence humaine, j'aurai plutôt tendance à te rejoindre pour ce qui est de ne pas surestimer le cerveau humain, mais aujourd'hui on ne peux pas encore trop s'avancer puisque personne ne comprends vraiment comment le cerveau humain fonctionne ! Si il y a quelque chose de merveilleux c'est bien ce qu'est capable de produire la nature à travers l'évolution.

Je maintiens donc mon idée sur la question de chatGPT ou autre model du même genre, ce n'est qu'un outil qui est très pratique mais qui n'a aucune intelligence. Quand il répond à une question, il ne sait pas de quoi il parle, il ne sait pas si ce qu'il dit à un sens ou pas, si c'est juste ou pas, si c'est morale ou pas : Il à juste pour but de trouver la meilleur réponse statistique par rapport à sa base de donnée.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 29/04/2024 à 20:46
Citation Envoyé par Golgotha Voir le message
Je ne sais pas ou tu as été chercher tes données sur le potentiel de chatGPT aux echecs, mais ce que je sais et que j'ai pu recouper démontre totalement l'inverse
Peut-être ici :
0  0 
Avatar de bit-bang theory
Futur Membre du Club https://www.developpez.com
Le 22/04/2024 à 16:59
Moi j'ai une question : En quoi les IA telle que chatGPT peuvent-elles être qualifiées d'intelligente ? [...] ne devrait pas allez plus loin qu'un super wikipédia
Jamais un super Wikipedia ne pourra atteindre un niveau 1500 ELO aux echecs, car une database de tous les coups possibles n'est pas envisageable en terme de mémoire.
ChatGPT atteint aujourd'hui ce niveau 1500 ELO et il a été prouvé que ce LMM intègre bien un modèle du jeu et de ses règles et est capable de jouer, de faire des choix stratégiques pour gagner comme le fait un humain dans son cerveau. Ce n'est pas juste une database.

Ne surestimez pas l'intelligence humaine. Ceux qui répètent que "ChatGPT ne fait qu'ajouter des mots, les uns après les autres de manière probabiliste"
N'est-ce pas là un fonctionnement similaire qui est à l'oeuvre quand un humain s'exprime ? franchement ?
L'IA aura t-elle le dernier ... ?
1  2