L'intelligence artificielle générale (AGI) est une forme hypothétique d'IA dans laquelle "une machine peut apprendre et penser comme un humain". Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et de son environnement afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâche. L'on s'attend à ce que l'AGI puisse révolutionner les industries, relever des défis mondiaux complexes et remodeler notre façon de travailler et de vivre. Et la question qui revient le plus souvent est : « quand atteindrons-nous une forme d'intelligence artificielle générale ? »
S'adressant à la presse cette semaine lors de l'événement annuel Nvidia GTC (GPU Technology Conference), le PDG Jensen Huang a été confronté une nouvelle fois à cette question. Il a semblé se lasser de discuter de ce sujet, car, selon lui, il est souvent mal cité. Huang a toutefois répondu à la question en déclarant dans un premier temps que prédire l'arrivée d'une AGI dépend de la définition que l'on donne à la technologie. L'industrie tente depuis plusieurs années de proposer une définition formelle et complète de l’intelligence, de l’IA et de l’AGI, mais à ce jour aucune des propositions n’est sans problèmes ou controverses.
Pour illustrer son point de vue, Huang établit quelques parallèles avec des situations de la vie : « même en tenant compte des complications liées aux fuseaux horaires, vous savez le moment où arrive le Nouvel An et le moment où arrive l'année 2025. Si vous vous rendez en voiture au San Jose Convention Center (où se tient cette année la conférence GTC), vous savez généralement que vous êtes arrivé lorsque vous voyez les énormes bannières de la GTC. Donc, l'essentiel est que nous puissions nous mettre d'accord sur la manière de mesurer que vous êtes arrivé, sur le plan temporel ou géospatial là où vous espériez aller ».
L'homme d'affaires ajouté également : « si nous spécifions que l'AGI est quelque chose de très précis, un ensemble de tests qu'un logiciel peut réussir très bien (ou peut-être 8 % de mieux que la plupart des gens), je pense que nous y arriverons d'ici cinq ans ». Il suggère que les tests pourraient être un examen du barreau, des tests de logique, des tests économiques ou peut-être la capacité à réussir un examen de médecine. À moins que l'auteur de la question ne soit en mesure de préciser la signification de l'AGI dans le contexte de la question, l'homme d'affaires affirme qu'il n'est pas en mesure de faire une prédiction.
La réponse du PDG de Nvidia à la question relative à l'arrivée de l'AGI contraste avec celle de certains acteurs de l'industrie. Les plus enthousiastes parmi eux affirment même que nous sommes déjà en présence d'une forme d'AGI. La position de Huang se rapproche toutefois de celle d'autres acteurs. Par exemple, le PDG d'OpenAI, Sam Altman, a déclaré l'année dernière que le monde aurait considéré ChatGPT comme une AGI si l'outil d'IA lui avait été présenté dix ans auparavant. Selon lui, les gens ont du mal à considérer ChatGPT comme une AGI en raison de l'absence d'un consensus sur la définition de l'intelligence.
Altman a laissé entendre que ChatGPT est victime de l'effet IA. L'effet IA est dû au fait que la communauté de l'IA (experts, chercheurs, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes. « Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. Il regrette le fait que les gens banalisent le potentiel de sa technologie en le réduisant à un simple agent conversationnel. En novembre, Google DeepMind a décidé de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes.
« Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée. Qu'est-ce que nous devrions collectivement reconnaître comme étant une AGI, un comportement ou une sensibilité de niveau humain ? Ou bien des connaissances générales sur un large éventail de sujets ? », note un critique. L'effet IA est perceptible tout au long de l'histoire de l'IA. À titre d'exemple, lorsque le programme de jeu d'échecs Deep Blue a vaincu le grand maître des échecs Garry Kasparov en 1997, cette victoire a été saluée comme une réalisation importante de l'IA.
Mais depuis cette victoire, les programmes d'IA jouant aux échecs sont maintenant communément considérés comme des algorithmes conventionnels plutôt que comme une IA révolutionnaire. Certains experts en IA ont fini par résumé l'effet IA en ces termes : « l'IA est tout ce qui n'a pas encore été fait ». L'effet IA montre à quel point il est difficile de définir l'intelligence et comment le terme est utilisé différemment selon les contextes, comme le comportement ou la cognition. Altman ajoute toutefois : « je pense que c'est une bonne chose que les règles du jeu changent constamment. Cela nous pousse à travailler plus dur ».
Par ailleurs, lors de l'interview mardi, Huang a également abordé la question des hallucinations des modèles d'IA actuels. Pour rappel, l'hallucination fait référence à la tendance des modèles d'IA à inventer des réponses qui semblent plausibles, mais qui ne sont pas fondées sur des faits. Huang a semblé visiblement frustré par la question, mais a suggéré que les hallucinations pouvaient être résolues facilement, en veillant à ce que les réponses soient bien documentées. « Ajoutez une règle. Pour chaque réponse, vous devez vérifier la réponse », dit-il. Il appelle cette pratique la "génération augmentée par la recherche d'information".
Telle que décrite par Huang, la génération augmentée par la recherche d'information (retrieval augmented generation - RAG) est une approche très similaire à l'éducation aux médias de base : examiner la source et le contexte. Comparez les faits contenus dans la source à des vérités connues, et si la réponse est inexacte - même partiellement - écartez toute la source et passez à la suivante. « L'IA ne doit pas se contenter de répondre ; elle doit d'abord faire des recherches pour déterminer quelles sont les meilleures réponses », a déclaré Huang.
Pour les réponses critiques, telles que les conseils de santé ou autres, le PDG de Nvidia suggère de vérifier plusieurs ressources et sources de vérité connues. Bien entendu, cela signifie que le logiciel d'IA qui crée une réponse à une question doit avoir la possibilité de dire "Je ne connais pas la réponse à votre question" ou "Je n'arrive pas à trouver un consensus sur la bonne réponse à cette question".
Source : Jensen Huang, PDG de Nvidia
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations du PDG de Nvidia sur l'arrivée de l'AGI ?
Partagez-vous son avis ? Pensez-vous que nous atteindrons une forme d'AGI d'ici à 5 ans ?
Selon vous, pourquoi l'industrie est divisée sur la définition de l'intelligence artificielle générale ?
Voir aussi
Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans, avec des machines "assez compétitives" par rapport à l'homme dans tous les domaines
« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques
Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes