IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

Le , par Mathis Lucas

47PARTAGES

5  0 
Les chercheurs de Meta pensent qu'une intelligence artificielle générale (AGI) ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions et pousse certains investisseurs à investir massivement dans les entreprises qui fabriquent des robots humanoïdes à usage général. Bien sûr, l'idée ne fait pas l'unanimité.

L'intelligence artificielle générale (AGI) est un système d'IA théorique dont les capacités rivalisent avec celles de l'homme. Pour atteindre ce niveau, l'IA doit maîtriser de nombreuses capacités, notamment : la perception sensorielle (vue, ouïe, touché, etc.), une motricité fine, le traitement du langage naturel, la résolution de problème, la navigation, la créativité, un engagement social et émotionnel, etc., et peut-être aussi le bon sens. Les plus optimistes affirment que l'on pourrait attendre une forme d'AGI d'ici cinq à dix ans, mais d'autres experts pensent que nous sommes encore à des décennies, voire des siècles, de l'AGI.

L'atteinte de l'AGI reste un défi de taille. Et de plus en plus de chercheurs affirment que l'industrie ne pourra pas atteindre cet objectif si elle ne change pas son approche actuelle. Ils plébiscitent une approche dans laquelle des agents artificiels adaptent leurs réseaux neuronaux ("cerveaux") en fonction des réactions de leur corps et de leur environnement, c'est-à-dire qu'ils apprennent à naviguer dans leur environnement. Selon ces chercheurs, cette approche constitue la prochaine étape fondamentale dans la poursuite de l'AGI et elle doit être juxtaposée aux progrès actuels de l'IA, en particulier les grands modèles de langage.


Cette approche est connue sous le nom de : IA incarnée. Elle défend l'hypothèse selon laquelle le seul moyen pour qu'une IA développe une véritable intelligence est de lui donner un corps et la capacité de se déplacer et d'expérimenter le monde. En comparaison, les IA exclusivement numériques peuvent être excellentes pour des tâches limitées, mais elles se heurteront toujours à un plafond en matière d'intelligence. Par exemple, selon certains chercheurs, l'action incarnée a des effets causaux sur la nature et les statistiques des entrées sensorielles, qui peuvent à leur tour entraîner des processus neuronaux et cognitifs.

Les statistiques des entrées sensorielles peuvent être saisies en e utilisant des méthodes issues de la théorie de l'information, en particulier des mesures d'entropie, d'information mutuelle et de complexité, sur des flux de données sensorielles. « Les systèmes d'IA qui n'ont pas d'incarnation physique ne pourront jamais être vraiment intelligents. Pour comprendre pleinement le monde, il est essentiel d'interagir avec lui et d'observer les résultats de ces interactions », explique Akshara Rai, chercheur chez Meta. Les robots humanoïdes comme Atlas et Optimus représentent peut-être le pas nécessaire dans la bonne direction.

L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publié en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.


Cependant, tous les développeurs d'IA n'adhèrent pas à l'hypothèse de l'incarnation - il pourrait s'avérer possible de créer une superintelligence uniquement numérique qui ne sentirait jamais la Terre sous ses pieds robotiques. Les critiques de cette approche affirment qu'elle pose de nombreux risques pour l'homme et l'environnement. L'un des défis majeurs du développement de l'IA incarnée est le risque d'erreurs au cours du processus d'apprentissage, qui peut entraîner des dommages à la fois pour l'IA et pour son environnement. Pour atténuer ces risques, les chercheurs se sont tournés vers les simulations informatiques.

Selon les chercheurs, ces simulations fournissent un environnement virtuel où l'IA peut apprendre par essais et erreurs sans conséquences dans le monde réel. Par exemple, AI Habitat, une plateforme open source développée par Meta et dévoilée en 2019, permet à l'IA de s'entraîner à naviguer et à interagir avec différents environnements, de la maison au bureau, dans un monde simulé. Cette approche permet à l'IA d'acquérir des compétences essentielles avant de passer à des robots physiques. Cette méthode réduit considérablement la courbe d'apprentissage et les risques associés aux interactions dans le monde réel.

Mais AI Habitat reste un environnement simulé et n'est pas le monde réel. Malgré les avantages des simulations, le passage du monde virtuel au monde physique présente sa propre série de défis, connus sous le nom de "fossé entre la simulation et la réalité". Ce fossé résulte de la difficulté de reproduire avec précision la physique complexe et l'imprévisibilité du monde réel dans un environnement virtuel. Boyuan Chen, de l'université Duke, souligne les limites inhérentes aux simulations, en notant que "même des choses simples, comme une balle qui rebondit [...], ne peuvent pas être très bien modélisées dans une simulation".


L'amélioration continue des technologies et des stratégies de simulation est essentielle pour réduire cet écart et faciliter la transition de l'IA du virtuel au tangible. En gros, le test ultime pour l'IA incarnée se produit lorsqu'elle entre dans le monde réel. L'IA incarnée en est maintenant au point où certaines entreprises sont prêtes à passer à l'étape suivante et à envoyer leurs robots dotés d'IA dans le monde réel, comme des parents qui déposent leurs enfants à l'école pour la première fois. Le fabricant de robots Agility Robotics a déployé des exemplaires de son robot humanoïde Digit comme dans certains entrepôts d'Amazon.

Le fabricant de robots humanoïdes Apptronik envoie ses robots Apollo travailler dans une usine Mercedes-Benz afin de prouver qu'ils sont capables fonctionner efficacement et en toute sécurité à côté de personnes. La startup Figure AI déploie ses humanoïdes IA dans une usine de fabrication BMW. Figure AI a présenté le mois dernier une mise à jour de son robot Figure 01 équipé d'un modèle de vision-langage (Vision-language model - VLM) développé par OpenAI. Avec ce modèle, Figure 01 peut maintenant comprendre le langage naturel, exécuter des commandes verbales et même expliquer pourquoi il fait ce qu'il fait.

Si l'hypothèse de l'incarnation se vérifie, l'association d'une entreprise qui développe des cerveaux d'IA parmi les plus avancés et d'une autre qui construit des corps de robots à la pointe de la technologie pourrait être la combinaison qui permettra de doter un être artificiel d'une intelligence comparable à celle de l'homme, et ce dans un avenir proche.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'approche dite de l'IA incarnée décrite ci-dessus ?
Les agents physiques dotés d'une IA sont-ils indispensables pour atteindre l'AGI ?
L'IA peut-elle apprendre et évoluer en interagissant avec le monde réel comme un humain ?
Quelles sont les limites de cette nouvelle approche ? Et quelles sont les préoccupations qu'elle pose ?

Voir aussi

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 22/07/2024 à 16:33
Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ?
La question devrait-être : Devrait-on encore penser par nous même à l'ère de l'IA ?
Bon, déjà qu'une bonne partie ne font que reprendre la pensée de pseudo journalistes (qui sont plus des épandeurs d'idées pré-machées)
13  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 03/05/2024 à 3:59
C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

Je me suis fais mon idée, chacun étant libre de choisir la sienne.

BàV et "Peace & Love"
11  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 7:35
Citation Envoyé par Jade Emy Voir le message
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Bien sur, nous savons tous que le climat c'est comme une voiture, quand il est cassé on le répare, avec des tournevis et du WD40.
Bien sur, nous savons tous, surtout depuis la physique quantique, que la physique est un domaine fini que nous mettons du temps à découvrir parce que nous sommes médiocres.
Quel est votre avis sur le sujet ?
Sam Altman est un clown qui ne sait pas de quoi il parle.
Mais il le dit surement mieux que moi parce qu'il lève des millions d'euros avec ce genre d'intervention.
Sam Altman prévoit que l'IA sera une ressource qui fera l'objet de guerres et deviendra principalement un outil pour les riches.[...]
Bref la même chose qu'aujourd'hui mais en pire
[...]Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
Ah beh tout va bien alors...
Ceci dit non seulement on va réparer le climat et découvrir la physique mais en plus se sera monnaie courante...
11  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/05/2024 à 0:45
10  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/07/2024 à 9:34
Citation Envoyé par calvaire Voir le message
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter

De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.

Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.

Si vous voyez ou je veux en venir. Le loup et le troupeau.
10  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 11:13
Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
MDR, l'IA, dont l'entraînement et l'utilisation des modèles génèrent d'importantes émissions de CO2 et dont les centres de données nécessaires à son fonctionnement consomment d'importantes quantités d'eau pour le refroidissement, serait bon pour le climat !!!
9  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 27/05/2024 à 20:08
dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde
8  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 22/07/2024 à 16:53
le PDG de Nvidia, Jensen Huang, a déclaré que, même à ce stade précoce de la révolution de l'IA générative, la programmation n'est plus une compétence vitale.
Cela revient à dire que l'on sera dépendant de l'IA pour faire n'importe quoi. Et si l'IA tombe en panne, devra-t-on attendre qu'il s'auto répare ? Je crains que cela risque d'être long.

manque d'innovation : l'IA est incapable de faire preuve d'esprit critique et de générer de nouvelles idées ; elle ne peut que répéter des idées basées sur les données sur lesquelles elle a été formée. L'esprit critique et la résolution de problèmes sont des compétences de programmation importantes que l'IA ne peut pas reproduire ;
C'est le point le plus négatif de l'IA, à savoir qu'il est dans l'impossibilité de créer quoi que ce soit, à l'inverse de l'humain.
Inversement, sur ce qu'il sait, et en admettant que l'IA ne puisse pas commettre d'erreurs, il aura la capacité de faire mieux que l'humain.
Mais comment l'IA peut évoluer s'il en est totalement incapable ?
Le pire est que si l'humain n'est plus en capacité d'évoluer lui-même et se repose totalement sur l'IA pour le faire à sa place, c'est la mort de l'humanité.
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
8  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/07/2024 à 8:12
Citation Envoyé par Artemus24 Voir le message
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
Sans aller jusqu'à considérer l'IA comme une nouvelle divinité, le danger est effectivement de s'en remettre à l'IA dans des domaines tel que la recherche fondamentale, l'innovation, la créativité,...

On voit aujourd'hui les méfaits d'un système uniquement basé sur la rentabilité, par exemple, dans l'univers du cinéma. Il n'y a quasiment plus de nouveauté, de création pure.
Soit on décrit le quotidien (autant regarder le "journal" de BFM ) soit ce sont des suites de suites ou des préquelles de suites de remake !
On nous parle de nouvelles séries : Zorro

Je me souviens quand mon père m'avait emmener voir Star Wars en 77 au ciné ! On n'avait jamais vu ça. Pareil pour Alien dans les années 80. Aujourd'hui on en est où ? Ben, des séries Star Wars, avant de nouveaux films, et toujours Alien !
8  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 23/07/2024 à 8:11
En sortie d'études, en France, je me souviens qu'on nous tenait déjà un discours sur l'inutilité prochaine de nos métiers en France, voués à être intégralement remplacés par de la sous-traitance en Inde ou ailleurs.
L'histoire aura largement donné tort à mes chers professeurs, et aujourd'hui encore, on voudrait nous ressortir les mêmes bêtises, mais avec encore moins d'arguments je trouve.
L'IA n'est en effet pas du tout autonome, limité dans sa "connaissance" au code qui a servi à son entrainement et dont elle ne comprend rien mais fait juste ressortir des patterns.
Le seul vrai risque de l'IA avec nos métiers, c'est quand elle nous entraînera dans sa chute quand la bulle explosera..
7  0