L'IA forte ou l'IA générale sont d'autres termes utilisés pour désigner l'AGI. Ces formes théoriques d'IA s'opposent à l'IA faible, ou IA étroite, qui n'est capable d'effectuer que des tâches spécifiques ou spécialisées dans le cadre d'un ensemble prédéfini de paramètres. L'IAG serait capable de résoudre de manière autonome une variété de problèmes complexes dans différents domaines de connaissance.
L'intelligence artificielle générale (AGI) est une forme théorique d'IA capable de résoudre un nombre quelconque de tâches hypothétiques en utilisant des capacités cognitives humaines généralisées. L'AGI est une branche de la recherche théorique sur l'IA qui vise à développer une IA dotée d'un niveau humain de fonctions cognitives, y compris la capacité d'auto-apprentissage. Cependant, tous les chercheurs en IA ne croient pas qu'il soit possible de développer un système d'AGI, et le domaine est divisé sur les facteurs qui constituent l' « intelligence » et qui peuvent la mesurer avec précision.
L’IA générale et l’IA créative : des formes d’IA qui visent à reproduire et à dépasser les capacités cognitives humaines
La technologie de l’IA créative et générative permet aux machines de créer du contenu et de réaliser des tâches qui demandaient auparavant l’ingéniosité humaine, en se basant sur les caractéristiques et les motifs des données. Elle peut générer des textes, des images, des vidéos, de la musique, etc., dans différents styles et domaines. Elle utilise des modèles d’IA comme les GAN, les RNN ou les transformateurs pour produire du contenu.
Les premiers systèmes d’IA étaient limités à une intelligence artificielle faible, se spécialisant dans une seule tâche et l’exécutant parfois aussi bien ou mieux que l’homme. Par exemple, MYCIN ne faisait que diagnostiquer et traiter les infections bactériennes. SYSTRAN ne faisait que traduire automatiquement. Deep Blue ne jouait qu’aux échecs.
Plus tard, des modèles de réseaux neuronaux profonds entraînés par apprentissage supervisé, comme AlexNet et AlphaGo, ont réussi à accomplir un certain nombre de tâches de perception et de décision automatiques qui étaient difficiles à réaliser avec des systèmes basés sur des heuristiques, des règles ou des connaissances. Plus récemment, nous avons vu des modèles de pointe capables d’effectuer une grande variété de tâches sans être entraînés spécifiquement pour chacune d’elles.
Une IA de niveau humain serait une machine, ou un réseau de machines, capable d'effectuer la même gamme de tâches que celles dont nous sommes capables. Il s'agirait d'une machine « capable d'apprendre à faire tout ce qu'un humain peut faire », comme le disent Norvig et Russell dans leur manuel sur l'IA. Elle serait capable de choisir les actions qui lui permettent d'atteindre ses objectifs et de les exécuter. Elle serait capable de faire le travail d'un traducteur, d'un médecin, d'un illustrateur, d'un enseignant, d'un thérapeute, d'un chauffeur, ou le travail d'un investisseur.
Les prédictions et les controverses des experts en IA
Ces dernières années, plusieurs équipes de recherche ont contacté des experts en IA et les ont interrogés sur leurs attentes concernant l'avenir de l'intelligence artificielle. Ces enquêtes auprès d'experts sont l'un des éléments d'information sur lesquels nous pouvons nous appuyer pour nous faire une idée de ce que pourrait être l'avenir de l'IA. Il a été demandé aux experts s'ils pensaient qu'il y avait 50 % de chances que l'IA de niveau humain existe.
« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind. En attendant d’y être, le PDG de Google Deepmind recommande d’opter pour le développement responsable des systèmes d’intelligence artificielle pour une transition en douce. « Je suis pour que nous poursuivions avec les travaux sur des systèmes d’IA à déployer comme outils afin de nous permettre de mieux les comprendre avant d’aller à un autre stade », reconnaît-il en soulignant en sus que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »
L'AGI qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank. S'exprimant lors de la conférence d'entreprise SoftBank World. Selon une étude, la date moyenne prévue pour l’AGI est 2041, avec une fourchette probable de 2032 à 2048, et une date la plus proche possible de 2028. L’étude souligne que l’AGI représente un risque existentiel imminent pour l’humanité, qui pourrait survenir avant les effets du réchauffement climatique.
Un ancien chercheur clé d'OpenAI estime qu'il y a des chances que l'AGI prenne le contrôle de l'humanité et la détruise. « Je le prends très au sérieux. Dans l'ensemble, nous parlons peut-être d'une probabilité de catastrophe de 50/50 peu de temps après que nous avons mis en place des systèmes qui concernent l'humain », déclare Paul Christiano.
Son propos rejoint celui de Geoffrey Hinton : « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. » Pour Son, l'AGI serait dix fois plus intelligente que la somme totale de l'intelligence humaine.
Les chercheurs Blaise Agüera y Arcas et Peter Norvig tentent de démontrer que l’AGI est déjà présente. Dans un essai publié par l’Institut Berggruen, Blaise Agüera y Arcas, vice-président et membre de Google Research, qui dirige une organisation travaillant sur la recherche fondamentale, le développement de produits et l’infrastructure pour l’IA, et Peter Norvig, informaticien et chercheur en éducation à l’Institut de Stanford pour l’IA centrée sur l’homme, soutiennent que les modèles d’IA les plus avancés d’aujourd’hui présentent de nombreux défauts. Cependant, ils estiment qu’il faudra plusieurs décennies avant que ces modèles ne soient reconnus comme les premiers véritables exemples d’intelligence générale artificielle.
En 2011, Shane Legg a publié un billet de blog dans lequel il disait :
Envoyé par Shane Legg
À la question de savoir comment il a pu obtenir une estimation aussi précise avant que les tendances d’auhpurd’hui ne se presentent, Legg repond qu’il a commencé à y croire vers 2001, après avoir lu l'ouvrage de Ray Kurzweil intitulé The Age of Spiritual Machines. Il y a deux points « vraiment importants » dans son livre qu’il a fini par considérer comme vrais :
Le premier est que la puissance de calcul allait croître de manière exponentielle pendant au moins quelques décennies. D'autre part, la quantité de données dans le monde va croître de manière exponentielle pendant quelques décennies. Et lorsque les quantités de calculs et de données augmentent de manière exponentielle, la valeur des algorithmes hautement évolutifs devient de plus en plus élevée. Il y a beaucoup d'intérêt à créer un algorithme plus évolutif pour exploiter toutes ces données informatiques.
« J'ai donc pensé qu'il était très probable que nous commencions à découvrir des algorithmes évolutifs. Il y a ensuite une rétroaction positive entre tous ces éléments, car si votre algorithme devient meilleur pour exploiter les données informatiques, la valeur des données et du calcul augmente parce qu'ils peuvent être utilisés plus efficacement. Cela entraîne une augmentation des investissements dans ces domaines. Si vos performances informatiques augmentent, la valeur des données augmente car vous pouvez utiliser plus de données. Il y a donc des boucles de rétroaction positives entre tous ces éléments. C'était la première chose à faire », déclare Legg.
Ensuite, la deuxième chose a été de regarder les tendances. Si les algorithmes évolutifs étaient découverts, il devrait être possible, dans les années 2020, de commencer à former des modèles sur une quantité de données bien supérieure à celle qu'un être humain aurait à traiter au cours de sa vie. « Je me suis dit que c'est à ce moment-là que de grandes choses commenceraient à se produire et qu'elles débloqueraient l'AGI. C'est ainsi que j'ai raisonné. Et je pense que nous en sommes maintenant à la première partie. Je pense que nous pouvons commencer à former des modèles maintenant avec l'échelle des données qui est au-delà de ce qu'un humain peut expérimenter dans une vie. Je pense donc qu'il s'agit de la première étape de déblocage », dit-il.
« Et donc, oui, je pense qu'il y a une chance sur deux que nous ayons l'AGI d'ici 2028. Mais ce n'est qu'une chance sur deux. Je suis sûr que ce qui va se passer, c'est qu'en 2029, quelqu'un dira : "Shane, tu avais tort." Allez, j'ai dit 50 % de chances », précise Legg.
La pensée de Legg est une estimation basée sur son expérience et sa vision de l’IA. Il n’existe pas de méthode scientifique pour prédire l’avenir de l’IA, ni de consensus parmi les experts sur la définition et la mesure de l’AGI. Il est donc difficile d’évaluer la fiabilité de sa prédiction.
Néanmoins, on peut reconnaître que Legg a une position optimiste et ambitieuse sur le progrès de l’IA. Il pense que les modèles actuels d’IA sont capables d’apprendre à faire une grande variété de tâches cognitives, et qu’il suffit de les tester et de les améliorer pour atteindre le seuil de l’AGI. Il ne semble pas accorder beaucoup d’importance aux limites et aux risques potentiels de l’IA, tels que la sécurité, l’éthique, la responsabilité, la transparence, etc. Il se concentre plutôt sur les aspects techniques et scientifiques de l’IA.
On peut être d’accord ou pas avec sa pensée, mais il faut reconnaître qu’elle est stimulante et provocatrice. Elle nous invite à réfléchir sur ce que signifie l’intelligence, humaine ou artificielle, et sur les implications sociales et morales de la création d’une machine qui pourrait nous dépasser. Elle nous pousse également à nous interroger sur notre propre rôle et notre propre responsabilité dans le développement et l’utilisation de l’IA.
Source : YouTube video
Et vous ?
Trouvez-vous l'opinion de Masayoshi Son pertinente ?
Que pensez-vous de l'AGI ?
Voir aussi :
L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint», selon des chercheurs
Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité, qui pourrait être confrontée à son plus grand et son plus proche péril existentiel
« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA