L'intelligence artificielle générale (AGI) est un système d'IA théorique dont les capacités rivalisent avec celles de l'homme. Pour atteindre ce niveau, l'IA doit maîtriser de nombreuses capacités, notamment : la perception sensorielle (vue, ouïe, touché, etc.), une motricité fine, le traitement du langage naturel, la résolution de problème, la navigation, la créativité, un engagement social et émotionnel, etc., et peut-être aussi le bon sens. Les plus optimistes affirment que l'on pourrait attendre une forme d'AGI d'ici cinq à dix ans, mais d'autres experts pensent que nous sommes encore à des décennies, voire des siècles, de l'AGI.
L'atteinte de l'AGI reste un défi de taille. Et de plus en plus de chercheurs affirment que l'industrie ne pourra pas atteindre cet objectif si elle ne change pas son approche actuelle. Ils plébiscitent une approche dans laquelle des agents artificiels adaptent leurs réseaux neuronaux ("cerveaux" en fonction des réactions de leur corps et de leur environnement, c'est-à-dire qu'ils apprennent à naviguer dans leur environnement. Selon ces chercheurs, cette approche constitue la prochaine étape fondamentale dans la poursuite de l'AGI et elle doit être juxtaposée aux progrès actuels de l'IA, en particulier les grands modèles de langage.
Cette approche est connue sous le nom de : IA incarnée. Elle défend l'hypothèse selon laquelle le seul moyen pour qu'une IA développe une véritable intelligence est de lui donner un corps et la capacité de se déplacer et d'expérimenter le monde. En comparaison, les IA exclusivement numériques peuvent être excellentes pour des tâches limitées, mais elles se heurteront toujours à un plafond en matière d'intelligence. Par exemple, selon certains chercheurs, l'action incarnée a des effets causaux sur la nature et les statistiques des entrées sensorielles, qui peuvent à leur tour entraîner des processus neuronaux et cognitifs.
Les statistiques des entrées sensorielles peuvent être saisies en e utilisant des méthodes issues de la théorie de l'information, en particulier des mesures d'entropie, d'information mutuelle et de complexité, sur des flux de données sensorielles. « Les systèmes d'IA qui n'ont pas d'incarnation physique ne pourront jamais être vraiment intelligents. Pour comprendre pleinement le monde, il est essentiel d'interagir avec lui et d'observer les résultats de ces interactions », explique Akshara Rai, chercheur chez Meta. Les robots humanoïdes comme Atlas et Optimus représentent peut-être le pas nécessaire dans la bonne direction.
L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publié en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.
Cependant, tous les développeurs d'IA n'adhèrent pas à l'hypothèse de l'incarnation - il pourrait s'avérer possible de créer une superintelligence uniquement numérique qui ne sentirait jamais la Terre sous ses pieds robotiques. Les critiques de cette approche affirment qu'elle pose de nombreux risques pour l'homme et l'environnement. L'un des défis majeurs du développement de l'IA incarnée est le risque d'erreurs au cours du processus d'apprentissage, qui peut entraîner des dommages à la fois pour l'IA et pour son environnement. Pour atténuer ces risques, les chercheurs se sont tournés vers les simulations informatiques.
Selon les chercheurs, ces simulations fournissent un environnement virtuel où l'IA peut apprendre par essais et erreurs sans conséquences dans le monde réel. Par exemple, AI Habitat, une plateforme open source développée par Meta et dévoilée en 2019, permet à l'IA de s'entraîner à naviguer et à interagir avec différents environnements, de la maison au bureau, dans un monde simulé. Cette approche permet à l'IA d'acquérir des compétences essentielles avant de passer à des robots physiques. Cette méthode réduit considérablement la courbe d'apprentissage et les risques associés aux interactions dans le monde réel.
Mais AI Habitat reste un environnement simulé et n'est pas le monde réel. Malgré les avantages des simulations, le passage du monde virtuel au monde physique présente sa propre série de défis, connus sous le nom de "fossé entre la simulation et la réalité". Ce fossé résulte de la difficulté de reproduire avec précision la physique complexe et l'imprévisibilité du monde réel dans un environnement virtuel. Boyuan Chen, de l'université Duke, souligne les limites inhérentes aux simulations, en notant que "même des choses simples, comme une balle qui rebondit [...], ne peuvent pas être très bien modélisées dans une simulation".
L'amélioration continue des technologies et des stratégies de simulation est essentielle pour réduire cet écart et faciliter la transition de l'IA du virtuel au tangible. En gros, le test ultime pour l'IA incarnée se produit lorsqu'elle entre dans le monde réel. L'IA incarnée en est maintenant au point où certaines entreprises sont prêtes à passer à l'étape suivante et à envoyer leurs robots dotés d'IA dans le monde réel, comme des parents qui déposent leurs enfants à l'école pour la première fois. Le fabricant de robots Agility Robotics a déployé des exemplaires de son robot humanoïde Digit comme dans certains entrepôts d'Amazon.
Le fabricant de robots humanoïdes Apptronik envoie ses robots Apollo travailler dans une usine Mercedes-Benz afin de prouver qu'ils sont capables fonctionner efficacement et en toute sécurité à côté de personnes. La startup Figure AI déploie ses humanoïdes IA dans une usine de fabrication BMW. Figure AI a présenté le mois dernier une mise à jour de son robot Figure 01 équipé d'un modèle de vision-langage (Vision-language model - VLM) développé par OpenAI. Avec ce modèle, Figure 01 peut maintenant comprendre le langage naturel, exécuter des commandes verbales et même expliquer pourquoi il fait ce qu'il fait.
Si l'hypothèse de l'incarnation se vérifie, l'association d'une entreprise qui développe des cerveaux d'IA parmi les plus avancés et d'une autre qui construit des corps de robots à la pointe de la technologie pourrait être la combinaison qui permettra de doter un être artificiel d'une intelligence comparable à celle de l'homme, et ce dans un avenir proche.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'approche dite de l'IA incarnée décrite ci-dessus ?
Les agents physiques dotés d'une IA sont-ils indispensables pour atteindre l'AGI ?
L'IA peut-elle apprendre et évoluer en interagissant avec le monde réel comme un humain ?
Quelles sont les limites de cette nouvelle approche ? Et quelles sont les préoccupations qu'elle pose ?
Voir aussi
L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei
L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank
« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques