IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

Le , par Mathis Lucas

41PARTAGES

5  0 
Les chercheurs de Meta pensent qu'une intelligence artificielle générale (AGI) ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions et pousse certains investisseurs à investir massivement dans les entreprises qui fabriquent des robots humanoïdes à usage général. Bien sûr, l'idée ne fait pas l'unanimité.

L'intelligence artificielle générale (AGI) est un système d'IA théorique dont les capacités rivalisent avec celles de l'homme. Pour atteindre ce niveau, l'IA doit maîtriser de nombreuses capacités, notamment : la perception sensorielle (vue, ouïe, touché, etc.), une motricité fine, le traitement du langage naturel, la résolution de problème, la navigation, la créativité, un engagement social et émotionnel, etc., et peut-être aussi le bon sens. Les plus optimistes affirment que l'on pourrait attendre une forme d'AGI d'ici cinq à dix ans, mais d'autres experts pensent que nous sommes encore à des décennies, voire des siècles, de l'AGI.

L'atteinte de l'AGI reste un défi de taille. Et de plus en plus de chercheurs affirment que l'industrie ne pourra pas atteindre cet objectif si elle ne change pas son approche actuelle. Ils plébiscitent une approche dans laquelle des agents artificiels adaptent leurs réseaux neuronaux ("cerveaux") en fonction des réactions de leur corps et de leur environnement, c'est-à-dire qu'ils apprennent à naviguer dans leur environnement. Selon ces chercheurs, cette approche constitue la prochaine étape fondamentale dans la poursuite de l'AGI et elle doit être juxtaposée aux progrès actuels de l'IA, en particulier les grands modèles de langage.


Cette approche est connue sous le nom de : IA incarnée. Elle défend l'hypothèse selon laquelle le seul moyen pour qu'une IA développe une véritable intelligence est de lui donner un corps et la capacité de se déplacer et d'expérimenter le monde. En comparaison, les IA exclusivement numériques peuvent être excellentes pour des tâches limitées, mais elles se heurteront toujours à un plafond en matière d'intelligence. Par exemple, selon certains chercheurs, l'action incarnée a des effets causaux sur la nature et les statistiques des entrées sensorielles, qui peuvent à leur tour entraîner des processus neuronaux et cognitifs.

Les statistiques des entrées sensorielles peuvent être saisies en e utilisant des méthodes issues de la théorie de l'information, en particulier des mesures d'entropie, d'information mutuelle et de complexité, sur des flux de données sensorielles. « Les systèmes d'IA qui n'ont pas d'incarnation physique ne pourront jamais être vraiment intelligents. Pour comprendre pleinement le monde, il est essentiel d'interagir avec lui et d'observer les résultats de ces interactions », explique Akshara Rai, chercheur chez Meta. Les robots humanoïdes comme Atlas et Optimus représentent peut-être le pas nécessaire dans la bonne direction.

L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publié en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.


Cependant, tous les développeurs d'IA n'adhèrent pas à l'hypothèse de l'incarnation - il pourrait s'avérer possible de créer une superintelligence uniquement numérique qui ne sentirait jamais la Terre sous ses pieds robotiques. Les critiques de cette approche affirment qu'elle pose de nombreux risques pour l'homme et l'environnement. L'un des défis majeurs du développement de l'IA incarnée est le risque d'erreurs au cours du processus d'apprentissage, qui peut entraîner des dommages à la fois pour l'IA et pour son environnement. Pour atténuer ces risques, les chercheurs se sont tournés vers les simulations informatiques.

Selon les chercheurs, ces simulations fournissent un environnement virtuel où l'IA peut apprendre par essais et erreurs sans conséquences dans le monde réel. Par exemple, AI Habitat, une plateforme open source développée par Meta et dévoilée en 2019, permet à l'IA de s'entraîner à naviguer et à interagir avec différents environnements, de la maison au bureau, dans un monde simulé. Cette approche permet à l'IA d'acquérir des compétences essentielles avant de passer à des robots physiques. Cette méthode réduit considérablement la courbe d'apprentissage et les risques associés aux interactions dans le monde réel.

Mais AI Habitat reste un environnement simulé et n'est pas le monde réel. Malgré les avantages des simulations, le passage du monde virtuel au monde physique présente sa propre série de défis, connus sous le nom de "fossé entre la simulation et la réalité". Ce fossé résulte de la difficulté de reproduire avec précision la physique complexe et l'imprévisibilité du monde réel dans un environnement virtuel. Boyuan Chen, de l'université Duke, souligne les limites inhérentes aux simulations, en notant que "même des choses simples, comme une balle qui rebondit [...], ne peuvent pas être très bien modélisées dans une simulation".


L'amélioration continue des technologies et des stratégies de simulation est essentielle pour réduire cet écart et faciliter la transition de l'IA du virtuel au tangible. En gros, le test ultime pour l'IA incarnée se produit lorsqu'elle entre dans le monde réel. L'IA incarnée en est maintenant au point où certaines entreprises sont prêtes à passer à l'étape suivante et à envoyer leurs robots dotés d'IA dans le monde réel, comme des parents qui déposent leurs enfants à l'école pour la première fois. Le fabricant de robots Agility Robotics a déployé des exemplaires de son robot humanoïde Digit comme dans certains entrepôts d'Amazon.

Le fabricant de robots humanoïdes Apptronik envoie ses robots Apollo travailler dans une usine Mercedes-Benz afin de prouver qu'ils sont capables fonctionner efficacement et en toute sécurité à côté de personnes. La startup Figure AI déploie ses humanoïdes IA dans une usine de fabrication BMW. Figure AI a présenté le mois dernier une mise à jour de son robot Figure 01 équipé d'un modèle de vision-langage (Vision-language model - VLM) développé par OpenAI. Avec ce modèle, Figure 01 peut maintenant comprendre le langage naturel, exécuter des commandes verbales et même expliquer pourquoi il fait ce qu'il fait.

Si l'hypothèse de l'incarnation se vérifie, l'association d'une entreprise qui développe des cerveaux d'IA parmi les plus avancés et d'une autre qui construit des corps de robots à la pointe de la technologie pourrait être la combinaison qui permettra de doter un être artificiel d'une intelligence comparable à celle de l'homme, et ce dans un avenir proche.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'approche dite de l'IA incarnée décrite ci-dessus ?
Les agents physiques dotés d'une IA sont-ils indispensables pour atteindre l'AGI ?
L'IA peut-elle apprendre et évoluer en interagissant avec le monde réel comme un humain ?
Quelles sont les limites de cette nouvelle approche ? Et quelles sont les préoccupations qu'elle pose ?

Voir aussi

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/04/2024 à 0:22
Le domaine de l'intelligence artificielle s'est creusé sur l'idée de faire des agents artificiels spécialisés variés et de les mettre ensemble pour faire un agent composite général. Cela n'a rien de loufoque à première vue, car c'est comme on fait des fonctions très spécialisées, qu'on combine ensuite pour faire des fonctions de plus haut niveau qui font des choses plus complexes.

Là où le bas blesse, c'est que même aujourd'hui, personne n'a créé la moindre fonction capable de faire tout et n'importe quoi. Et dans les faits, plus on monte en capacités diverses et variées, plus il faut introduire de "management". C'est le principe de "découper" la grosse brique monolithique en petits bouts (micro services) gérés de manière standardisée pour qu'on arrive à s'y retrouver (merci les ops). En bref, tout comme la fonction unique pouvant tout faire, l'IA générale comme combinaison d'IA spécifiques est un doux rêve théorique infaisable en pratique.

L'IA générale, qualifiée comme telle justement pour contrer cet aspect spécialisé, n'est cela dit pas un concept nouveau : il s'agit à la base d'une niche dans le domaine de l'IA, où on cherche justement à construire un agent non spécialisé. Par exemple l'intelligence pourrait être modélisée comme une capacité à maximiser les futurs possibles, quels qu'ils soient.

Ce qui se fait majoritairement dans le domaine de l'IA, à savoir de la performance spécialisée, c'est ce qu'on appelle de l'expertise (artificielle). Et je suis content de voir qu'on commence à s'en rendre compte avec des modèles comme Mixtral qui introduisent des concepts de "mixture of experts". Dans le temps on avait aussi ce qu'on appelait des systèmes experts (ça se fait encore mais ça n'est pas la tendance), mais le principe est d'incorporer dans la machine les connaissances d'un ou plusieurs experts, experts qu'on a cherché à mettre au placard avec les systèmes à apprentissage.

Aujourd'hui, le terme d'IA générale est sur le devant de la scène pour de mauvaises raisons : tout comme on fait l'amalgame entre intelligence et expertise depuis longtemps, on fait désormais l'amalgame entre IA générative et générale. Certes les systèmes actuels donnent l'impression de capacités générales, mais on voit vite que ce n'est pas le cas quand on joue un peu avec. Passé l'effet "wow !", on se rend vite compte qu'on a un générateur de texte sans cervelle : s'il a été entraîné sur les bonnes données, il régurgite ce qu'il a vu ailleurs (ce n'est pas pour rien que les procès liés à la propriété intellectuelle explosent), sinon il régurgite quelque chose en lien avec ce qu'on demande mais qui ressemble à ce qu'il a vu, quitte à générer des énormités. Énormités pour lesquelles il n'aura aucun mal à admettre ses erreurs (réponse cohérente dans un texte faisant état d'une erreur), mais sans pour autant les corriger si on recommence (réponse cohérente aussi : même garbage in, même garbage out).

Pour résumer, je suis d'accord que parler d'IA générale sur les technos d'aujourd'hui est un mensonge, mais au même titre que parler d'intelligence tout court l'est aussi depuis le début. Passé la frustration de la définition, c'est à prendre comme un buzzword marketing, et ça c'est la peine usuelle depuis que la publicité existe : faire passer des vessies pour des lanternes. C'est pourquoi on a les retours inverses que finalement on s'en fiche du terme employé, tant que ça sert (comprendre "tant que c'est bon pour le business"). La seule solution pérenne à ma connaissance est de développer son esprit critique pour ne pas tomber dans le panneau.
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/04/2024 à 10:32
Citation Envoyé par Patrick Ruiz Voir le message
Et vous ?

Quelle analyse faites-vous du positionnement de Dana Blankenhorn sur l'AGI ?
Je pense que son analyse est bonne. L'AI actuelle n'est qu'une supercherie médiatique pour vendre un produit. Produit que l'on a déjà sous une forme peu abordable pour le grand public. Mais, le "I" de IA, dans ce cas, n'a pas grand chose avec "Intelligence".
Citation Envoyé par Patrick Ruiz Voir le message
Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
Tout à fait. Ça permet à des entreprises, comme OpenAI d'obtenir des financements sur du vent. C'est un phénomène connu, et généralement, ça fait pshiiit tôt ou tard, entrainant des pertes colossales (que le système fera payer aux plus pauvres, donc pas d'inquiétude)
Citation Envoyé par Patrick Ruiz Voir le message
ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
Bien sûr que c'est dû à la surmédiatisation. Le reste n'a que peu d'intérêt.
Citation Envoyé par Patrick Ruiz Voir le message
Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?
Ça, je n'en sait rien. Mais je ne pense pas que je le connaitrai, et c'est tant mieux. Car, quoi qu'il arrive, ce sera toujours le pire que les hommes choisiront.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 12/04/2024 à 8:06
Citation Envoyé par Matthieu Vergne Voir le message
Là où le bas blesse
Juste pour rappeler que l'expression c'est : Là où le bât blesse.
Ça vient du temps où l'on chargeait les ânes ou les mulets ou les mules. Le chargement de ces pauvres bêtes est le bât. Et, parfois, l'animal refusait d'avancer car il était blessé par le chargement. Il fallait alors chercher l'origine du problème. D'où l'expression : C'est là que le bât blesse.
4  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 15/04/2024 à 8:18
Citation Envoyé par Denis CADIOT Voir le message
La version ChatGPT-4 sous Copilot Android est gratuite, et franchement au niveau "intelligence" 3.5 ou 4 c'est pareil.
Copilot est arrivé au travail.
Certains collègues le teste et son assez convaincus, il résume assez bien les réunion.
Mais le "assez" signifie aussi qu'il confond parfois action avec problème ou inverse le raisonnement présenté.

Ce qui m'inquiète dans cette histoire est qu'on était tous d'accord pour tester.
On demandé à Copilot de faire un compte rendu de la réunion, que l'on pouvait corriger avant officialisation.
Nous sommes deux à avoir demandé plusieurs corrections (notamment quand Copilot transforme le message de quelqu'un).
Le compte rendu a été envoyé en ignorant nos demandes estimant que le compte rendu était "suffisamment bon" alors que les comptes rendus rédigés par quelqu'un peuvent être revus.

Ces comptes rendus sont les rares qui sont relus a posteriori, donc on "grave dans le marbre" des raisonnements d'une personnes qu'il n'a pas eu et qui le décrédibiliseront peut être plus tard.
La phase de test est clairement biaisée puise que les failles ne remontent pas. Je suppose que dans quelques mois nous aurons une news nous annonçant qu'on va gagner des heures de travail parce que notre nouvel assistant infaillible fait le travail plus vite et mieux que tout le monde...
3  0 
Avatar de alcsi
Membre du Club https://www.developpez.com
Le 15/04/2024 à 13:26
L'ami Musk raconte n'importe quoi comme d'habitude, mais je pense pas que ce soit totalement innocent.

Par exemple, c'est une excellente occasion pour lui de continuer à parler de Neuralink et à planter dans l'opinion publique l'idée que Neuralink puisse faire partie de notre futur.
Mine de rien, tu convainc pas une population humaine de se connecter à une machine du jour au lendemain, donc il est dans un travail de long terme (j'allais dire, "un travail de sape" ?!), tant face au "consommateur final" que face au législateur.

Rien n'est plus important pour lui que le succès commercial de ses produits : il est pas présent sur l'IA ?
Qu'à cela ne tienne, il l'utilise pour sa propre pub.
3  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 09/04/2024 à 16:02
les emplois qui sont remplaçable par des ia ont déjà été remplacé depuis longtemps par la délocalisation des indiens/chinois/africains...etc.
a mon avis ce sont surtout eux qui vont morfler.

nos camionneurs par exemple ont déja été remplacé par les "IA" polonais il y'a 20ans, et les camionneurs Polonais se font désormais remplacer par les ia "Ukrainiens", qui eux meme dans 20ans se feront susurrement remplacer par des Géorgiens ou Azerbajanais.
ce mécanisme ont le retrouve partous, dans la tech notamment, cela fait longtemps que un maximum de chose a été remplacé par des IA Indiens payé une misère et bossant 50hj/semaines. Remplacer un indien par un bot ca changera pas grand chose pour le français au chômage.

Il est prévu que si l'otan gagne contre la russie, tous les patrons ont signé pour construire des usines et exploité au maximum la misère de ce pays (salaire ukrainien encore plus faible que le russe).
Officiellement c'est bien car c'est pour investir et aider le pays a se reconstruire
Un ukrainien niveau salaire bas les chinois ou les bangladeshi, nos futur vetements et chaussures et voitures viendront surement d’Ukraine si l'otan gagne, au lieu de la Slovaquie ou de la Roumanie, ca changera pas grand chose encore une fois pour un francais.

Pour le coup l'ia est une chance pour les pays riches, ca va réduire de beaucoup la délocalisation, il est préférable d'avoir une usine full ia en France avec à peine 10 salariés qu'une usine en chine avec 500 salariés.
2  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 09/04/2024 à 19:12
Elon Musk, grand medium Xtralucide
2  0 
Avatar de _toma_
Membre averti https://www.developpez.com
Le 10/04/2024 à 23:27
la vie des chinois ne m’intéresse pas [...] si la france pouvait retrouver son leadership quitte à faire vivre la misère a des millions d'humains dans d'autres pays, alors il faut le faire.
Les puissances étrangère ne se privent pas de nous faire des coup de pute donc aucune gêne à avoir en retour

Idéalement nouer des partenariats gagnant gagnant et bâtir des relations de confiance sur le long terme
Je sais que c'est facile pour personne d'être cohérent dans ses idées ou convictions. Mais quand même, un petit effort ;-).
2  0 
Avatar de Aiigl59
Membre actif https://www.developpez.com
Le 11/04/2024 à 23:54
Je ne savais pas qu'en plus d'être con Elon était prophète...
3  1 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 12/04/2024 à 9:55
La perspective de l’atteinte d’une intelligence artificielle trouve en sus écho dans certains cercles académiques. « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.
De quelle intelligence parle-t-on ?
Voici les types d’intelligence de Gardner :
--> L’intelligence verbo-linguistique
--> L’intelligence logico-mathématique
--> L’intelligence visuelle-spatiale
--> L’intelligence intra-personnelle
--> L’intelligence inter-personnelle
--> L'intelligence corporelle-kinesthésique
--> L’intelligence musicale-rythmique
--> L’intelligence naturaliste-écologiste
--> L'intelligence existentielle (ou spirituelle)

Il y a des chimpanzés qui ont une mémoire visuelle largement supérieur à celle de l'homme. Je ne crois pas un seul instant que le chimpanzé va mettre en danger l'avenir de l'humanité à cause de cette exceptionnelle capacité mémorielle.

Un autre critique a écrit : « il s'agit donc de l'argument standard : "il n'y a pas d'intelligence, ce n'est que de l'autocomplétion". La réponse à cela est "qui s'en soucie ?". Si le système est capable d'augmenter la productivité, de nous aider à résoudre des problèmes qui étaient auparavant insolubles (le repliement des protéines) et de remplacer des emplois, alors on se moque de savoir s'il est réellement intelligent ».
Il n'y a pas d'intelligence dans un automate. Celui-ci ne fait que reproduire ce pourquoi il a été conçu. C'est exactement le cas des voitures sans conducteur.
Donc oui, c'est une supercherie coutumière de nous faire prendre les vessies pour des lanternes et tout ça, dans l'intérêt financier de quelques uns.
Mais si l'on veut être prophète, le danger est social car il va déstabiliser nos sociétés et créer de grave problème dans l'avenir.
Que va-t-on faire de ces gens qui ne sont plus aptes à travailler puisque l'IA fera mieux qu'eux ?
2  0