IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM,
Il propose une piste pour créer une IA de niveau humain

Le , par Mathis Lucas

7PARTAGES

7  0 
Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, ne partage pas la dernière prédiction audacieuse d'Elon Musk selon laquelle l'IA surpassera l'intelligence humaine dès l'année prochaine. Le chercheur en IA affirme qu'une intelligence artificielle générale (AGI) est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Pour lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

De nombreux vulgarisateurs et chercheurs en IA se montrent enthousiastes vis-à-vis de l'AGI et font des prédictions très optimistes sur son avènement. Rien qu'au cours des dernières semaines, un trio d'éminences grises de la technologie a ajouté de nouvelles proclamations. Jensen Huang, PDG de Nvidia, a laissé entendre que l'AGI pourrait arriver d'ici cinq ans. Ben Goertzel, expert en IA et fondateur de SingularityNET, a prédit une arrivée dans trois ans seulement. Elon Musk, PDG de la startup xAI, s'est montré beaucoup plus optimiste et a donc fait la prédiction la plus audacieuse pour le point de basculement : la fin de l'année 2025.

Mais Yann LeCun est un sceptique notable de toutes ces prédictions. Considéré comme l'un des trois "parrains de l'IA", LeCun va jusqu'à affirmer que "l'AGI n'existe pas" parce que "l'intelligence humaine est loin d'être générale". Le Français préfère tracer la voie vers une "IA de niveau humain". Lors d'un événement organisé la semaine dernière à Londres, le centre d'ingénierie phare de Meta en dehors des États-Unis, LeCun a déclaré que même cette vision restait une destination lointaine. Il a évoqué un quartet de défis cognitifs : le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

« Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les grands modèles de langage (LLM) qui propulsent l'IA.

Selon LeCun, ils sont sévèrement limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En d'autres termes, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.

LeCun affirme que les LLM ne sont pas aussi intelligents qu'ils le paraissent et remet en cause l'efficace de l'approche utilisée dans leur entraînement. Les modèles tels que LLama de Meta, GPT-4 d'OpenAI et Gemini de Google sont formés à partir d'énormes quantités de données. Selon le chercheur français, il faudrait environ 100 000 ans à un humain pour lire tout le texte ingéré par un LLM de premier plan. Mais ce n'est pas la principale méthode d'apprentissage de l'humanité, qui consomme bien plus d'informations par le biais de ses interactions avec le monde. Cela suggère en effet que l'IA a besoin d'une incarnation physique.

Les scientifiques de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions dans l'industrie et pousse certains investisseurs à investir massivement dans les entreprises d'IA qui fabriquent des robots humanoïdes à usage général.


L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publiée en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.

LeCun estime qu'un enfant de quatre ans a vu 50 fois plus de données que les plus grands spécialistes du LLM. « La plupart des connaissances humaines ne sont en fait pas du langage, de sorte que ces systèmes ne pourront jamais atteindre une intelligence de niveau humain, à moins de modifier l'architecture », affirme LeCun. Naturellement, il propose une autre architecture : "une IA guidée par les objectifs". Les modèles d'IA axés sur les objectifs sont construits pour remplir des objectifs spécifiques fixés par les humains. Plutôt que d'être nourris de texte pur, ils apprennent à connaître le monde physique grâce à des capteurs.

Leur formation sera également basée sur des données vidéo. Selon LeCun, le résultat est un "modèle du monde" qui montre l'impact des actions. Tous les changements potentiels sont ensuite mis à jour dans la mémoire du système. Quelle sera la différence, par exemple, si une chaise est poussée vers la gauche ou vers la droite d'une pièce ? En apprenant par l'expérience, les états finaux commencent à devenir prévisibles. Par conséquent, les machines peuvent planifier les étapes nécessaires à l'accomplissement de diverses tâches. LeCun est confiant quant aux résultats que pourrait produire cette nouvelle approche de l'IA.

« Les machines finiront par surpasser l'intelligence humaine, mais cela prendra du temps. Ce n'est pas pour demain, et certainement pas pour l'année prochaine, comme l'a dit notre ami Elon », a déclaré LeCun. Le responsable de l'IA chez Meta s'est montré particulièrement discret et sceptique face aux prédictions sur l'AGI. LeCun ne propose pas un calendrier sur l'avènement de l'AGI, mais invite les acteurs de l'industrie à adopter une nouvelle approche dans la quête de l'AGI et réfute certaines prédictions qu'il juge trop optimistes et parfois éloignées de la réalité. Bien sûr, ses idées ne font pas l'unanimité dans la communauté.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des critiques de Yann LeCun sur les prédictions d'Elon Musk ?
Que pensez-vous des propos de LeCun selon lesquels "l'intelligence humaine n'est pas générale" ?
Quid de l'approche qu'il propose pour atteindre une IA de niveau humain : une IA guidée par les objectifs ?

Voir aussi

Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025

Le PDG de Nvidia, Jensen Huang, affirme que les jeux entièrement générés par l'IA verront le jour d'ici 5 à 10 ans, ce qui suggère que l'IA pourrait remplacer les développeurs de jeux à l'avenir

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre averti https://www.developpez.com
Le 03/05/2024 à 3:59
C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

Je me suis fais mon idée, chacun étant libre de choisir la sienne.

BàV et "Peace & Love"
10  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/05/2024 à 0:45
9  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 27/05/2024 à 20:08
dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde
7  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 03/05/2024 à 17:34
On voit bien qu'il ne s'agit pas de son pognon...
6  0 
Avatar de CHAF007
Membre à l'essai https://www.developpez.com
Le 06/05/2024 à 14:37
Hâte d'être dans cinq ans pour réaliser que tout ça n'est que du flan. Mais malheureusement notre mémoire est bien courte. On ne devait pas déjà "rouler" en voitures volantes, avoir des robots à la maison et partir en vacances sur Mars ?

Évidemment que le Monsieur ponce les conférences et sort ses petites phrases pseudo prophétiques à qui veut bien les entendre. D'ailleurs il en devient relativement fatigant. En prenant le problème dans l'autre sens, étant donnée sa position, aurait-il un intérêt à ne pas tout enjoliver de la sorte ? Évidemment que lors de la ruée vers l'or, les vendeurs de pelles promettaient à quiconque qu'il y avait encore des tonnes d'or dans les sous-sols.

Quand on n'a pas grand chose à dire sur le présent, on parle du futur, ça fait vendre. Il passe de plus en plus de fondateur génial, parti de rien, à un être bien antipathique notre monsieur.
6  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 13/05/2024 à 20:54
Citation Envoyé par Ryu2000 Voir le message
Il n'y a qu'à se dire qu'il y a une histoire de polysémie et voilà le débat est clos.
On s'en moque un peu de la sémantique, non ?
Tu as d'un côté ceux qui pensent qu'effectivement ça n'a pas d'importance, et de l'autre ceux qui pensent qu'au contraire c'est un problème fondamental. J'en ai croisé quelques uns du premier bord, moi je suis du second. Je ne comprends pas qu'on puisse établir un consensus (notamment scientifique) si on ne sait pas de quoi on parle, et rechigner à définir revient à laisser chacun y aller de sa propre interprétation, ce qui pour moi ne permet justement pas de conclure puisqu'on n'a pas de base commune. Quand tu en as qui tirent des conclusions en étudiant l'intelligence d'un point de vue performance, d'autre d'un point de vue conscience, d'autres d'un point de vue renseignement (rare mais déjà vu), etc. comment veux-tu comprendre à quoi tu as affaire ? Chacun parlant d'un truc différent sans jamais préciser quoi exactement. Et après d'autres souffrent (ou profitent) de cette ambiguïté sémantique en prenant des hypothèses qui font sens pour une interprétation, mais en tirent ensuite des conclusions qu'ils appliquent à une autre interprétation, ce qui donne des raisonnements fallacieux pas toujours évidents à déceler.
5  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 27/05/2024 à 22:32
IA de merde pas forcément, elle fait ce pour quoi elle a été conçue. Mais l'utilisateur, ici BP, peut en abuser. Et vu le discours tenu, il semble qu'il soit en bonne voie de le faire (l'abus). Donc oui, s'il pousse trop loin il devra réembaucher par la suite. On ne devient pas bon dans ce qu'on fait en lisant juste ce que font les autres, même les meilleurs. La pratique reste indispensable. S'il se contente de faire valider le code aux humains, même s'il garde les meilleurs, ils vont naturellement perdre en qualité (et en motivation pour d'autres raisons). Ce qu'il gagne là il le perdra par ailleurs. Et selon comment le process évolue, il peut y avoir une perte de cohérence qui rendra le code d'autant plus difficile à reprendre quand il faudra y remettre de l'humain dedans.

Maintenant, si ce qu'il dit est vrai et se passe bien, c'est que le code de BP est vraiment du code basique et inintéressant au possible. Auquel cas merci d'épargner aux dévs ce genre d'expérience.
5  0 
Avatar de pebaroiller
Membre à l'essai https://www.developpez.com
Le 28/05/2024 à 9:22
Pourquoi pas, mais pour avoir testé / utlisé copilot & co, le gain n'est pas si énorme, et surtout , on ne peut pas faire confiance à 100% à l'IA. le code généré peut sembler être bon, mais il est souvent "mal pensé", "pas optimisé", voir même peut générer des bugs avec le reste du code existant.
Après, on verra d'ici quelques années si ils arrivent à se passer de nous ou si on contraire, ils auront besoin de personne ultra-qualifiées pour débugger tout ce qui aura été "codé automatiquement" pendant plusieurs années!
5  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 06/05/2024 à 7:59
Citation Envoyé par Mathis Lucas Voir le message
Sam Altman, PDG d'OpenAI, affirme qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés.
Cette phrase ne devrait elle pas faire instantanément fuir tout financeur?
Il affirme qu'il est OK pour bruler de l'argent
4  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 07/05/2024 à 7:28
Citation Envoyé par OuftiBoy Voir le message
Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule.
Je m'y connais assez mal mais n'est on pas arrivé au moment où ce n'est plus une question de confiance mais de survie, si la machine s'arrête on perd tout donc on fait tout pour qu'elle se maintienne coute que coute?
Comment peut on brasser autant d'argent sur pas grand chose de concret? Certains me reprochent de ne pas m'intéresser à la bourse mais quand on me parle d'une petite boite qui veut monter en force de frappe je comprends quand on parle de millions voir milliards d'euros tout devient instantanément vachement abstrait pour moi et me donne l'impression d'être le petit poisson qui va se faire manger par le gros.
3  0