En termes simples, l'intelligence artificielle générale est une forme "hypothétique" d'intelligence artificielle dans laquelle une machine peut apprendre et penser comme un humain. Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et une conscience tout court, afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâches. Si l'AGI - également appelée "IA forte" - semble relever de la science-fiction, c'est parce qu'elle est encore d'actualité. Les formes d'IA existantes n'ont pas encore atteint le niveau de l'AGI, mais les chercheurs en IA et les entreprises travaillent toujours pour en faire une réalité.
L'IA (dite faible) est en fait formée à partir de donnée pour effectuer des tâches spécifiques ou une série de tâches limitées à un seul contexte. Plusieurs formes d'IA s'appuient sur des algorithmes ou des règles préprogrammées pour guider leurs actions et apprendre à fonctionner dans un certain environnement. Par contre, l'AGI se veut capable de raisonner et de s'adapter à de nouveaux environnements et à différents types de données. Au lieu de dépendre de règles prédéfinies pour fonctionner, l'AGI adopte une approche de résolution de problèmes et d'apprentissage. Selon les experts, l'AGI devrait faire preuve des mêmes capacités de raisonnement que les humains.
L'IA faible ou étroite est le type d'IA qui pilote les véhicules autonomes, les générateurs d'images et les chatbots. En d'autres termes, il s'agit d'une IA qui exécute une gamme limitée de tâches. Deux sous-ensembles d'IA entrent dans la catégorie de l'IA faible : les machines réactives et les machines à mémoire limitée. Les machines réactives peuvent réagir à des stimuli immédiats, mais ne peuvent pas stocker ou apprendre à partir de souvenirs d'actions passées. Les machines à mémoire limitée peuvent stocker des informations passées afin d'améliorer leurs performances au fil du temps. Elles représentent la majorité des outils d'IA disponibles aujourd'hui.
Cependant, l'AGI brouille la frontière entre l'intelligence humaine et l'intelligence des machines. Il y a trois principaux avis sur le sujet. Certains experts en IA pensent que nous serons en présence d'une AGI lorsque les machines feront preuve d'une cognition de niveau humain. Mais cette affirmation est controversée par d'autres experts qui pensent que la manifestation de l'AGI sera implicite et qu'il sera difficile de prouver qu'une forme d'IA est une AGI. Un troisième groupe d'experts réfute ces deux arguments et affirme que l'AGI est "irréalisable". En outre, il faut aussi noter que les experts sont divisés sur la notion même d'intelligence générale artificielle.
« L'AGI n'est pas une ligne définie où elle existe d'un côté et n'existe pas de l'autre. Il s'agit d'un état subjectif de l'IA qui, à mon avis, se développera progressivement sur un spectre. À mon avis, certaines personnes penseront qu'elle existe, d'autres non, et cela s'ajustera graduellement jusqu'à ce qu'il y ait plus de gens qui pensent que cela existe que de gens qui ne le pensent pas », peut-on lire dans les commentaires. Un autre a écrit : « nous atteindrons l'AGI lorsque les capacités des machines seront bien supérieures à celles des humains dans de nombreux domaines. L'AGI n'existera jamais, car dès qu'elle sera là, elle sera déjà supérieure à l'homme ».
« Il ne s'agit pas d'une chose binaire. Les Transformers font déjà des choses de bas niveau en matière d'AGI. L'AGI augmentera probablement de manière progressive, avec quelques percées occasionnelles donnant lieu à des avancées plus importantes que la normale. Rien ne prouve que l'AGI passera de 1 à 1000 en une nuit. Je ne pense même pas que les Transformers soient capables d'une AGI de niveau humain, et je ne connais pas d'architecture qui le permette. Je ne parierai donc pas sur une AGI de niveau humain dans un avenir prévisible », a écrit un autre critique. Même les experts en IA de premier plan semblent divisés sur la question.
Après la sortie de GPT-4, une équipe de scientifiques de Microsoft a prétendu dans un rapport d'étude que la technologie d'OpenAI montre des "étincelles" d'une AGI. « Compte tenu de l'étendue et de la profondeur des capacités de GPT-4, nous pensons qu'il pourrait raisonnablement être considéré comme une version précoce, mais encore incomplète) d'une AGI ». Mais cette affirmation et la méthode utilisée par l'équipe pour arriver à cette conclusion ont fait l'objet d'une grande controverse. Mais comment l'AGI se manifestera-t-elle une fois qu'elle sera une réalité ? Les experts prédisent son arrivée, mais ne disent pas comment on saura qu'il est là :
Sam Altman, cofondateur et PDG d'OpenAI
Dans une interview avec Lex Fridman, expert en IA et présentateur de podcast, en mars dernier, Altman a déclaré que bien que les progrès rapides sont faits dans le domaine de l'IA, le calendrier de l'AGI est incertain. Il a souligné l'importance de discuter et d'aborder la possibilité que l'AGI constitue une menace existentielle pour l'humanité. Il préconise la découverte de nouvelles techniques pour atténuer les dangers potentiels et l'itération à travers des problèmes complexes pour apprendre tôt et limiter les scénarios à haut risque. Altman a demandé ensuite à son interlocuteur s'il pensait que GPT-4 était une AGI, ce à quoi Fridman a répondu :
« Je pense que si c'est le cas, comme pour les vidéos d'OVNI, nous ne le saurions pas tout de suite. Je pense qu'il est difficile de le savoir quand je réfléchis. Je jouais avec GPT-4 et je me demandais comment je pourrais savoir s'il s'agit d'une AGI ou non. En d'autres termes, quelle est la part de l'AGI dans l'interface que j'ai avec cette chose ? Et quelle est la part de la sagesse qu'elle renferme ? Une partie de moi pense que l'on pourrait avoir un modèle capable d'une "super intelligence" et qu'on ne l'a pas encore tout à fait débloquée. C'est ce que j'ai vu avec ChatGPT ». Altman a parlé ensuite des dangers potentiels de l'AGI et de ses avantages.
Altman a déclaré cette semaine dans le forum Reddit r/singularity que son entreprise avait mis au point une IA de niveau humain, mais il s'est tout de suite ravisé et a affirmé que le produit développé par OpenAI ne faisait que "mimer" l'intelligence humaine. Certains critiques l'ont accusé de faire la publicité mensongère. « De toute évidence, il s'agit juste d'un mème, vous n'avez pas froid aux yeux, lorsque l'AGI sera réalisée, elle ne sera pas annoncée par un commentaire sur Reddit », a-t-il déclaré.
Elon Musk, PDG de Tesla et de X.ai
Musk a créé une nouvelle startup d'IA, xAI, pour se lancer dans la course à l'IA. Avec xAI, Musk a rassemblé plusieurs experts en IA, avec l'objectif audacieux de "comprendre la vraie nature de l'univers". « L'objectif principal de xAI est de construire une AGI meilleure dont le but principal est d'essayer de comprendre l'univers. Je pense que nous pouvons créer une alternative compétitive qui, je l'espère, sera meilleure que Google DeepMind, OpenAI ou Microsoft », a déclaré Musk. Bien qu'il n'ait pas dit comment il compte y arriver, il a indiqué une date précise à laquelle il s'attend à ce que l'AGI devienne une réalité : à peu près en 2029.
Geoffrey Hinton, lauréat du prix Turing et ex-Googler
Geoffrey Hinton est un chercheur canadien spécialiste de l'IA et plus particulièrement des réseaux de neurones artificiels. Ancien membre de l'équipe Google Brain, il a choisi de quitter son poste pour mettre en garde contre les risques de l'IA. Après son départ, il a prédit le moment où l'IA dépassera l'intelligence humaine. « Je prédis maintenant cinq à 20 ans, mais sans grande confiance. Nous vivons une époque très incertaine. Il est possible que je me trompe totalement sur le fait que l'intelligence numérique nous dépasse. Personne ne le sait vraiment et c'est la raison pour laquelle nous devrions nous inquiéter dès maintenant », a-t-il déclaré en mai.
Ray Kurzweil, auteur, chercheur et futurologue
Ray Kurzweil, chercheur et célèbre futurologue américain, a fait de nombreuses prédictions au fil des ans et quelques-unes se sont avérées admirablement précises. Lors de la conférence SXSW 2017 à Austin, au Texas, Ray Kurzweil a fait la prédiction suivant : « d'ici 2029, les ordinateurs auront une intelligence de niveau humain. Cela signifie que les ordinateurs auront une intelligence humaine, que nous les mettrons dans nos cerveaux, que nous les connecterons au cloud et que nous élargirons ce que nous sommes. Aujourd'hui, il ne s'agit pas seulement d'un scénario futur. C'est déjà le cas, en partie, et cela va s'accélérer ».
Ben Goertzel, PDG de SingularityNET
Figure controversée dans les milieux technologiques, Ben Goertzel a contribué à populariser le terme AGI. Il est également enclin à faire des déclarations audacieuses sur l'avenir de la technologie. Lors d'une conférence en 2018, il en a ajouté quelques-unes. « Je ne pense pas que nous ayons besoin d'algorithmes fondamentalement nouveaux. Je pense que nous devons connecter nos algorithmes d'une manière différente de ce que nous faisons aujourd'hui. Si j'ai raison, alors nous avons déjà les algorithmes de base dont nous avons besoin. Je pense que nous sommes à moins de dix ans de la création d'une IA de niveau humain », a-t-il déclaré.
Mais il a ajouté une phrase laissant penser qu'il plaisantait à propos de cette prédiction. « Cela se produira le 8 décembre 2026, le jour de mon 60e anniversaire. Je retarderai l'événement jusqu'à cette date pour organiser une grande fête d'anniversaire », a-t-il ajouté.
John Carmack, développeur de Doom
John Carmack pense que l'AGI pourrait être atteinte d’ici 2030 et a lancé un partenariat avec un institut de recherche en Alberta pour en accélérer le développement. Carmack a fait part de son point de vue lors d'un événement organisé à l'occasion de l'annonce de l'embauche de Richard Sutton, conseiller scientifique en chef de l'Alberta Machine Intelligence Institute, par Keen, sa startup consacrée au développement de l’AGI. Sutton est d'avis qu'il n'est pas impossible de coder une AGI avec les techniques actuelles et considère l'année 2030 comme un objectif envisageable pour qu'un prototype d'IA montre des signes de conscience.
Yoshua Bengio, professeur d'informatique à l'Université de Montréal
Yoshua Bengio est également un lauréat du prix Turing. Comme son ami et collègue Yann LeCunn, lauréat du prix Turing, Bengio préfère le terme "intelligence de niveau humain" à celui d'intelligence artificielle. Quoi qu'il en soit, il est sceptique quant aux prédictions concernant son avènement. « Je ne pense pas qu'il soit plausible de savoir quand, dans combien d'années ou de décennies, il faudra atteindre l'IA de niveau humain », a déclaré Bengio.
Demis Hassabis, PDG de Google DeepMind
Demis Hassabis a fait de Google DeepMind (anciennement DeepMind), dont le siège est à Londres, en Angleterre, l'un des principaux laboratoires d'IA au monde. Sa mission principale est de développer une AGI. Il définit l'AGI comme "une cognition de niveau humain" et a déclaré au début de l'année : « les progrès réalisés ces dernières années ont été assez incroyables. Je ne vois aucune raison pour que ces progrès ralentissent. Je pense même qu'ils pourraient s'accélérer. Je pense donc que nous ne sommes plus qu'à quelques années, voire à une décennie près ». Il partage également l'avis selon lequel l'AGI est une menace existentielle pour l'humanité.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la notion d'AGI et des controverses qui l'entourent ?
Que pensez-vous des prédictions sur la date d'arrivée de la première forme d'AGI ? Sont-elles réalistes ?
Comment saurons-nous que nous avons atteint une forme d'AGI ? En existe-t-il déjà ?
Les systèmes d'IA actuels laissent-ils entrevoir l'arrivée prochaine d'une forme d'AGI ? Pourquoi ?
Partagez-vous l'avis selon lequel une forme d'AGI ne sera jamais atteinte ? Pourquoi ?
Voir aussi
John Carmack, développeur de Doom, pense que l'IA générale (AGI) est réalisable d'ici 2030 et lance un partenariat avec un institut de recherche en Alberta pour en accélérer le développement
Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale : « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »
La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique, selon Geoffrey Hinton, un des pionniers de la recherche en intelligence artificielle