Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Yann LeCun affirme que l'AGI est inévitable~? mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM,

Il propose une piste pour créer une IA de niveau humain

Le 2024-04-16 14:58:55, par Mathis Lucas, Chroniqueur Actualités
Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, ne partage pas la dernière prédiction audacieuse d'Elon Musk selon laquelle l'IA surpassera l'intelligence humaine dès l'année prochaine. Le chercheur en IA affirme qu'une intelligence artificielle générale (AGI) est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Pour lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

De nombreux vulgarisateurs et chercheurs en IA se montrent enthousiastes vis-à-vis de l'AGI et font des prédictions très optimistes sur son avènement. Rien qu'au cours des dernières semaines, un trio d'éminences grises de la technologie a ajouté de nouvelles proclamations. Jensen Huang, PDG de Nvidia, a laissé entendre que l'AGI pourrait arriver d'ici cinq ans. Ben Goertzel, expert en IA et fondateur de SingularityNET, a prédit une arrivée dans trois ans seulement. Elon Musk, PDG de la startup xAI, s'est montré beaucoup plus optimiste et a donc fait la prédiction la plus audacieuse pour le point de basculement : la fin de l'année 2025.

Mais Yann LeCun est un sceptique notable de toutes ces prédictions. Considéré comme l'un des trois "parrains de l'IA", LeCun va jusqu'à affirmer que "l'AGI n'existe pas" parce que "l'intelligence humaine est loin d'être générale". Le Français préfère tracer la voie vers une "IA de niveau humain". Lors d'un événement organisé la semaine dernière à Londres, le centre d'ingénierie phare de Meta en dehors des États-Unis, LeCun a déclaré que même cette vision restait une destination lointaine. Il a évoqué un quartet de défis cognitifs : le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

« Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les grands modèles de langage (LLM) qui propulsent l'IA.

Selon LeCun, ils sont sévèrement limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En d'autres termes, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.

LeCun affirme que les LLM ne sont pas aussi intelligents qu'ils le paraissent et remet en cause l'efficace de l'approche utilisée dans leur entraînement. Les modèles tels que LLama de Meta, GPT-4 d'OpenAI et Gemini de Google sont formés à partir d'énormes quantités de données. Selon le chercheur français, il faudrait environ 100 000 ans à un humain pour lire tout le texte ingéré par un LLM de premier plan. Mais ce n'est pas la principale méthode d'apprentissage de l'humanité, qui consomme bien plus d'informations par le biais de ses interactions avec le monde. Cela suggère en effet que l'IA a besoin d'une incarnation physique.

Les scientifiques de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions dans l'industrie et pousse certains investisseurs à investir massivement dans les entreprises d'IA qui fabriquent des robots humanoïdes à usage général.


L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publiée en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.

LeCun estime qu'un enfant de quatre ans a vu 50 fois plus de données que les plus grands spécialistes du LLM. « La plupart des connaissances humaines ne sont en fait pas du langage, de sorte que ces systèmes ne pourront jamais atteindre une intelligence de niveau humain, à moins de modifier l'architecture », affirme LeCun. Naturellement, il propose une autre architecture : "une IA guidée par les objectifs". Les modèles d'IA axés sur les objectifs sont construits pour remplir des objectifs spécifiques fixés par les humains. Plutôt que d'être nourris de texte pur, ils apprennent à connaître le monde physique grâce à des capteurs.

Leur formation sera également basée sur des données vidéo. Selon LeCun, le résultat est un "modèle du monde" qui montre l'impact des actions. Tous les changements potentiels sont ensuite mis à jour dans la mémoire du système. Quelle sera la différence, par exemple, si une chaise est poussée vers la gauche ou vers la droite d'une pièce ? En apprenant par l'expérience, les états finaux commencent à devenir prévisibles. Par conséquent, les machines peuvent planifier les étapes nécessaires à l'accomplissement de diverses tâches. LeCun est confiant quant aux résultats que pourrait produire cette nouvelle approche de l'IA.

« Les machines finiront par surpasser l'intelligence humaine, mais cela prendra du temps. Ce n'est pas pour demain, et certainement pas pour l'année prochaine, comme l'a dit notre ami Elon », a déclaré LeCun. Le responsable de l'IA chez Meta s'est montré particulièrement discret et sceptique face aux prédictions sur l'AGI. LeCun ne propose pas un calendrier sur l'avènement de l'AGI, mais invite les acteurs de l'industrie à adopter une nouvelle approche dans la quête de l'AGI et réfute certaines prédictions qu'il juge trop optimistes et parfois éloignées de la réalité. Bien sûr, ses idées ne font pas l'unanimité dans la communauté.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des critiques de Yann LeCun sur les prédictions d'Elon Musk ?
Que pensez-vous des propos de LeCun selon lesquels "l'intelligence humaine n'est pas générale" ?
Quid de l'approche qu'il propose pour atteindre une IA de niveau humain : une IA guidée par les objectifs ?

Voir aussi

Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025

Le PDG de Nvidia, Jensen Huang, affirme que les jeux entièrement générés par l'IA verront le jour d'ici 5 à 10 ans, ce qui suggère que l'IA pourrait remplacer les développeurs de jeux à l'avenir
  Discussion forum
249 commentaires
  • OuftiBoy
    Membre averti
    C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

    Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

    Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

    Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

    De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

    Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

    Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

    Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

    Je me suis fais mon idée, chacun étant libre de choisir la sienne.

    BàV et "Peace & Love"
  • kain_tn
    Expert éminent
  • phil995511
    Membre éprouvé
    On voit bien qu'il ne s'agit pas de son pognon...
  • CHAF007
    Membre à l'essai
    Hâte d'être dans cinq ans pour réaliser que tout ça n'est que du flan. Mais malheureusement notre mémoire est bien courte. On ne devait pas déjà "rouler" en voitures volantes, avoir des robots à la maison et partir en vacances sur Mars ?

    Évidemment que le Monsieur ponce les conférences et sort ses petites phrases pseudo prophétiques à qui veut bien les entendre. D'ailleurs il en devient relativement fatigant. En prenant le problème dans l'autre sens, étant donnée sa position, aurait-il un intérêt à ne pas tout enjoliver de la sorte ? Évidemment que lors de la ruée vers l'or, les vendeurs de pelles promettaient à quiconque qu'il y avait encore des tonnes d'or dans les sous-sols.

    Quand on n'a pas grand chose à dire sur le présent, on parle du futur, ça fait vendre. Il passe de plus en plus de fondateur génial, parti de rien, à un être bien antipathique notre monsieur.
  • totozor
    Membre expert
    Envoyé par Mathis Lucas
    Sam Altman, PDG d'OpenAI, affirme qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés.
    Cette phrase ne devrait elle pas faire instantanément fuir tout financeur?
    Il affirme qu'il est OK pour bruler de l'argent
  • Matthieu Vergne
    Expert éminent
    Envoyé par Ryu2000
    Il n'y a qu'à se dire qu'il y a une histoire de polysémie et voilà le débat est clos.
    On s'en moque un peu de la sémantique, non ?
    Tu as d'un côté ceux qui pensent qu'effectivement ça n'a pas d'importance, et de l'autre ceux qui pensent qu'au contraire c'est un problème fondamental. J'en ai croisé quelques uns du premier bord, moi je suis du second. Je ne comprends pas qu'on puisse établir un consensus (notamment scientifique) si on ne sait pas de quoi on parle, et rechigner à définir revient à laisser chacun y aller de sa propre interprétation, ce qui pour moi ne permet justement pas de conclure puisqu'on n'a pas de base commune. Quand tu en as qui tirent des conclusions en étudiant l'intelligence d'un point de vue performance, d'autre d'un point de vue conscience, d'autres d'un point de vue renseignement (rare mais déjà vu), etc. comment veux-tu comprendre à quoi tu as affaire ? Chacun parlant d'un truc différent sans jamais préciser quoi exactement. Et après d'autres souffrent (ou profitent) de cette ambiguïté sémantique en prenant des hypothèses qui font sens pour une interprétation, mais en tirent ensuite des conclusions qu'ils appliquent à une autre interprétation, ce qui donne des raisonnements fallacieux pas toujours évidents à déceler.
  • totozor
    Membre expert
    Envoyé par OuftiBoy
    Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule.
    Je m'y connais assez mal mais n'est on pas arrivé au moment où ce n'est plus une question de confiance mais de survie, si la machine s'arrête on perd tout donc on fait tout pour qu'elle se maintienne coute que coute?
    Comment peut on brasser autant d'argent sur pas grand chose de concret? Certains me reprochent de ne pas m'intéresser à la bourse mais quand on me parle d'une petite boite qui veut monter en force de frappe je comprends quand on parle de millions voir milliards d'euros tout devient instantanément vachement abstrait pour moi et me donne l'impression d'être le petit poisson qui va se faire manger par le gros.
  • Artemus24
    Expert éminent sénior
    Salut Kannagi.

    Pour ma part, je ne crois pas qu'une machine aura un jour une conscience, ou alors, il faudra me définir ce qu'est une conscience, vu qu'aujourd'hui, personne ne sait ce que c'est. Je reste persuadé que la conscience est liée au vivant et a priori, une machine n'est pas vivante, sauf si on la combine du vivant. Dans ce cas, je ne sais pas trop comment qualifié cela puisque ce ne sont plus des machines, ni des êtres vivants, mais un entre deux.

    Inversement, attribuer des comportements humains à des machines, oui, je crois que dans un avenir pas si loin que ça, nous pourrons le constater. A vrai dire, je ne sais pas trop ce que l'on cherche à faire avec ces machines. Je suis persuadé que l'être humain seul sera vite incapable de progresser par lui-même car limité en intelligence. Pour cela, une machine sera capable d'aller au delà ce que l'homme sera capable de produire par lui-même en intelligence. Mais je pense que croire que l'avenir repose essentiellement sur l'IA est une erreur qui pourrait amener les humains dans une impasse ou si vous préférez être trop dépendant d'eux et de surcroit être incapable de progresser sans eux. Je pense que dans notre société, il y aura une fracture entre les pour et les contre. Cela ne veut pas dire qu'il y aura un rejet de la part de certains, mais une moins grande dépendance envers l'IA, et un chemin disons moins matérialiste.

    C'est mon opinion, mais actuellement, je pense qu'il y a une supercherie liée à l'IA. Tout ce que je vois, ce ne sont que des automates, mais pas de l'IA.
  • Kannagi
    Expert éminent sénior
    Oui , c'est possible que l'IA soit utilisé dans de large domaine et qu’elle nous remplace pour des taches cognitif complexe, c'est juste le mot "intelligent" qui me gêne, une calculatrice est plus "intelligent" que n'importe quel humain en terme de calcul et rapidité de celui ci.
    Mais c'est probablement pas le mot "intelligent" qui me viendrai à l'esprit pour décrire une calculatrice.
  • totozor
    Membre expert
    Envoyé par Artemus24
    Je suis d'accord avec toi que le mot "intelligent" n'est pas ce que j'aurai utilisé pour décrire ce type de fonctionnement.
    C'est comme la signification de MI6 : Military Intelligence, section 6. Je ne vois pas ce qu'il y a d'intelligent dans l'espionnage.
    Intelligence en Anglais peut signifier renseignement.
    La CIA est la Central Intelligence Agency, et le I signifie bien renseignement.