L'apprentissage social implique qu'un individu acquiert des compétences et des connaissances auprès d'un autre en les copiant. Cette forme d'apprentissage joue un rôle crucial dans le développement humain et animal. Jusqu'à présent, il s'agissait d'une méthode intrinsèque à la façon dont les humains et les animaux apprennent, mais une équipe de chercheurs de Google DeepMind affirme avoir démontré que les agents d'IA peuvent acquérir des compétences par le biais d'un processus comparable à l'apprentissage social chez les humains et les animaux. L'équipe de Google Deepmind affirme être la première à démontrer ce processus dans le domaine de l'IA.
Auparavant, les agents d'IA s'appuyaient fortement sur l'apprentissage supervisé, nécessitant une pléthore d'exemples de démonstrations humaine, ce qui était à la fois long et coûteux. L'équipe de Google DeepMind, dirigée par Edward Hughes, ingénieur de recherche, cherche un moyen de surmonter ces limites. Pour cela, elle s'est éloignée de la méthode traditionnelle et s'est inspirée des comportements d'apprentissage naturels observés chez les êtres vivants. Leur méthode ne repose pas sur des données humaines préenregistrées, mais permet à un agent d'IA d'identifier les experts parmi eux et de reproduire leur comportement en temps réel.
Dans un espace de travail physique simulé appelé GoalCycle3D (une sorte de terrain de jeu animé par ordinateur avec des sentiers et des obstacles), les chercheurs ont constaté que les agents d'IA ont été capables d'apprendre d'experts humains et d'experts en IA pour relever avec succès divers, sans avoir été préalablement exposés à des interactions ou à des instructions humaines. Dans un article publié cette semaine dans la revue Nature Communications, l'équipe affirme que cette percée a été réalisée grâce à l'apprentissage par renforcement, qui a permis à l'IA non seulement d'imiter, mais aussi de retenir efficacement les nouvelles connaissances.
« Nos agents parviennent à imiter en temps réel un humain dans des contextes nouveaux sans utiliser des données humaines préalablement collectées. Nous identifions un ensemble étonnamment simple d'ingrédients suffisants pour générer une transmission culturelle et nous développons une méthodologie d'évaluation pour l'évaluer rigoureusement. Cela ouvre la voie à un rôle algorithmique de l'évolution culturelle dans le développement de l'intelligence artificielle générale », indique l'équipe. Elle espère que d'autres chercheurs appliqueront plus largement les résultats de l'étude pour montrer comment l'évolution culturelle pourrait être développée dans l'IA.
Au fur et à mesure que cette recherche évolue, elle ouvre des voies passionnantes où les études interdisciplinaires entre l'IA et la psychologie de l'évolution culturelle pourraient considérablement accroître les capacités de l'IA. Cela pourrait conduire à la germination d'un éventail toujours plus large de compétences pertinentes pour les applications du monde réel, reflétant véritablement la sophistication de l'apprentissage humain. « Nous espérons une interaction interdisciplinaire fructueuse entre les domaines de l'IA et de la psychologie évolutive culturelle à l'avenir », a déclaré l'équipe, invitant les autres chercheurs en IA à collaborer sur cette nouvelle piste.
Selon les analystes, cette découverte ouvre de nouvelles perspectives pour le développement de l'intelligence artificielle générale (AGI). Le concept au cœur du terme "AGI" est que l'une des caractéristiques de l'intelligence humaine est sa généralité. Des programmes informatiques spécialisés peuvent facilement nous surpasser dans la sélection des actions ou la traduction du français en allemand, mais notre superpuissance réside dans le fait que nous pouvons apprendre à faire les deux. Recréer ce type de flexibilité dans les machines est le Saint Graal pour de nombreux chercheurs en IA, et l'on suppose souvent qu'il s'agit de la première étape vers l'AGI.
Mais ce que les gens entendent exactement par "AGI" est rarement précisé, et l'idée est souvent décrite en termes binaires, où l'AGI représente un logiciel qui a franchi une frontière mythique, et une fois de l'autre côté, elle est sur un pied d'égalité avec les humains. Les chercheurs de Google DeepMind ont récemment tenté de rendre le débat plus précis en proposant une définition plus précise du terme. Au lieu d'aborder l'AGI comme un but ultime, ils suggèrent notamment que nous devrions plutôt penser à différents niveaux d'AGI, les principaux chatbots actuels, notamment ChatGPT d'OpenAI et Bard de Google, représentant le premier échelon de l'échelle.
« Nous soutenons qu'il est essentiel pour la communauté des chercheurs en IA de réfléchir explicitement à ce que nous entendons par AGI et d'aspirer à quantifier des attributs tels que la performance, la généralité et l'autonomie des systèmes d'IA », a écrit une équipe de Google DeepMind dans une autre étude publiée sur arXiv. Les chercheurs précisent qu'ils se sont inspirés de la conduite autonome, où les capacités sont réparties en six niveaux d'autonomie, ce qui, selon eux, permet de discuter clairement des progrès réalisés dans ce domaine. Pour créer leur propre cadre, ils ont étudié certaines des principales définitions de l'AGI proposées par d'autres.
En examinant certaines des idées centrales partagées par ces définitions, ils ont identifié six principes auxquels toute définition de l'AGI doit se conformer. Tout d'abord, une définition devrait se concentrer sur les capacités plutôt que sur les mécanismes spécifiques utilisés par l'IA pour les atteindre. Il n'est donc pas nécessaire que l'IA pense comme un humain ou qu'elle soit consciente pour être qualifiée d'AGI. Dans le cadre de leur approche, les chercheurs de Google DeepMind suggèrent aussi que la généralité seule ne suffit pas pour l'AGI, les modèles d'IA doivent également atteindre certains seuils de performance dans les tâches qu'ils accomplissent.
Selon l'équipe, ces performances n'ont pas besoin d'être prouvées dans le monde réel, car il suffit de démontrer qu'un modèle a le potentiel de surpasser les humains dans une tâche. En outre, de nombreuses personnes pensent qu'une véritable AGI ne sera pas possible tant que l'IA ne sera pas incarnée dans des machines robotiques physiques, mais les chercheurs de Google DeepMind affirment que ce n'est pas une condition préalable à l'IAG. Selon eux, l'accent doit être mis sur les tâches qui relèvent des domaines cognitif et métacognitif - par exemple, apprendre à apprendre. Leur approche est toutefois controversée dans la communauté de l'IA.
L'équipe ajoute qu'il faut également que les critères de progrès aient une "validité écologique", ce qui signifie que l'IA est mesurée sur la base de tâches du monde réel appréciées par les humains. Enfin, les chercheurs affirment que l'accent doit être mis sur le suivi des progrès réalisés dans le développement de l'AGI plutôt que sur la fixation d'un point final unique. Sur la base de ces principes, l'équipe propose un cadre qu'elle appelle "Niveaux de l'AGI" et qui permet de classer les algorithmes en fonction de leurs performances et de leur généralité. Il définit cinq niveaux ascendants de l'AGI : "émergent", "compétent", "expert", "virtuose" et "surhumain".
Selon les chercheurs de Google DeepMind, ces niveaux peuvent être appliqués à l'IA étroite (IA faible) ou l'IGI (IA forte), ce qui permet de faire la distinction entre les programmes hautement spécialisés et ceux conçus pour résoudre un large éventail de tâches. Les chercheurs affirment que certains algorithmes d'IA étroite - comme AlphaFold, l'algorithme de repliement de protéines de Google DeepMind - ont déjà atteint le niveau "surhumain". Une déclaration qui est vivement controversée. Mais de manière encore plus controversée, l'équipe suggère que les chatbots d'IA tels que ChatGPT d'OpenAI et Bard de Google sont des exemples d'AGI émergente.
Source : rapports d'étude (1, 2)
Et vous ?
Que pensez-vous de la démonstration de Google DeepMind en matière d'apprentissage automatique ?
Cette démonstration constitue-t-elle une percée ? En quoi cela pourrait-il accélérer les progrès dans le domaine de l'IA ?
Peut-elle permettre d'atteindre plus rapidement l'AGI ? Que pensez-vous de la définition du terme AGI proposée par Google DeepMind ?
Que pensez-vous du cadre proposé par Google DeepMind pour classer les algorithmes ou les modèles d'IA ? Cette proposition est-elle crédible ?
Considérez-vous ChatGPT ou Bard comme une forme d'AGI ? Google DeepMind tente-t-il d'imposer une définition de l'AGI qui est à son avantage ?
Voir aussi
Google crée Google DeepMind, un nouveau groupe de recherche en IA, formé par la fusion de DeepMind et Brain
« Google a entraîné Internet dans une spirale de déclin », affirme un cofondateur de DeepMind qui déplore également le fait que les résultats de recherche sont truffés d'appâts à clics
Google DeepMind présente RT-X : un modèle d'IA généraliste pour aider à faire progresser la façon dont les robots peuvent apprendre de nouvelles compétences