Cependant, il est important de noter que ce que nous avons réalisé jusqu’à présent est une forme d’intelligence artificielle étroite (ANI). Ces systèmes d’IA sont conçus pour effectuer des tâches spécifiques, comme la reconnaissance d’images ou le jeu d’échecs, mais ils n’ont pas la compréhension générale du monde qu’aurait une intelligence artificielle générale (AGI). L’AGI désigne un type de système d’IA capable d’effectuer toutes les tâches intellectuelles d’un être humain. En d’autres termes, l’AGI possède une compréhension générale du monde et peut s’adapter à de nouvelles situations et environnements, tout comme le ferait un être humain.
Une IA de niveau humain serait une machine, ou un réseau de machines, capable d'effectuer la même gamme de tâches que celles dont nous sommes capables. Il s'agirait d'une machine « capable d'apprendre à faire tout ce qu'un humain peut faire », comme le disent Norvig et Russell dans leur manuel sur l'IA. Elle serait capable de choisir les actions qui lui permettent d'atteindre ses objectifs et de les exécuter. Elle serait capable de faire le travail d'un traducteur, d'un médecin, d'un illustrateur, d'un enseignant, d'un thérapeute, d'un chauffeur, ou le travail d'un investisseur.
Ces dernières années, plusieurs équipes de recherche ont contacté des experts en IA et les ont interrogés sur leurs attentes concernant l'avenir de l'intelligence artificielle. Ces enquêtes auprès d'experts sont l'un des éléments d'information sur lesquels nous pouvons nous appuyer pour nous faire une idée de ce que pourrait être l'avenir de l'IA. Il a été demandé aux experts s'ils pensaient qu'il y avait 50 % de chances que l'IA de niveau humain existe.
L’atteinte de l’intelligence artificielle de niveau humain est possible dans une décennie, selon le PDG de Google Deepmind. Rendues à ce stade, les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale (AGI), elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
En attendant d’y être, le PDG de Google Deepmind recommande d’opter pour le développement responsable des systèmes d’intelligence artificielle pour une transition en douce. « Je suis pour que nous poursuivions avec les travaux sur des systèmes d’IA à déployer comme outils afin de nous permettre de mieux les comprendre avant d’aller à un autre stade », reconnaît-il en soulignant en sus que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »
Définitions de l'intelligence, de l'IA et de l'AGI.
L’intelligence artificielle générale : mythe ou réalité ?
Voici, une définition informelle de l'intelligence en mettant l'accent sur le raisonnement, la planification et l'apprentissage par l'expérience. Cette définition ne précise pas comment mesurer ou compenser ces capacités. De plus, elle ne reflète peut-être pas les défis et les opportunités spécifiques des systèmes artificiels, qui peuvent avoir des objectifs et des contraintes différents de ceux des systèmes naturels.
Il existe une littérature abondante et continue qui tente de proposer des définitions plus formelles et plus complètes de l’intelligence, de l’IA et de l’AGI, mais aucune d’entre elles n’est exempte de problèmes ou de controverses. Par exemple, Legg et Hutter proposent une définition de l’AGI axée sur les objectifs : l’intelligence mesure la capacité d’un agent à atteindre des objectifs dans un large éventail d’environnements.
Toutefois, cette définition n’englobe pas nécessairement tout le spectre de l’intelligence, car elle exclut les systèmes passifs ou réactifs qui peuvent accomplir des tâches complexes ou répondre à des questions sans motivation ou objectif intrinsèque. On pourrait imaginer une AGI, un oracle brillant par exemple, qui n’a pas d’agence ni de préférences, mais qui peut fournir des informations précises et utiles sur n’importe quel domaine.
En outre, la définition de la réalisation d’objectifs dans un large éventail d’environnements implique également un certain degré d’universalité ou d’optimalité, qui n’est peut-être pas réaliste (l’intelligence humaine n’est certainement jamais universelle ni optimale). La nécessité de reconnaître l’importance des antécédents (par opposition à l’universalité) a été soulignée dans la définition proposée par Cholletin, qui centre l’intelligence sur l’efficacité de l’acquisition des compétences ou, en d’autres termes, met l’accent sur l’apprentissage par l’expérience (qui s’avère également être l’une des principales faiblesses des LLM).
Il n'existe pas de définition de l'intelligence qui fasse l'objet d'un consensus général, mais un aspect largement accepté est que l'intelligence ne se limite pas à un domaine ou à une tâche spécifique, mais qu'elle englobe plutôt un large éventail de compétences cognitives et d'aptitudes. Dans leurs premiers écrits, les fondateurs de la discipline moderne de la recherche sur l'intelligence artificielle (IA) ont parlé d'objectifs aspirationnels pour comprendre l'intelligence.
Au fil des décennies, les chercheurs en IA ont étudié les principes de l'intelligence, y compris les mécanismes généralisables de raisonnement et la construction de bases de connaissances contenant un large corpus de connaissances de bon sens. Cependant, bon nombre des succès récents de la recherche en IA peuvent être décrits comme étant étroitement concentrés sur des tâches et des défis bien définis, tels que le jeu de Chorus ou Go, qui ont été maîtrisés par des systèmes d'IA en 1996 et 2016, respectivement.
La singularité de l'IA fait référence à un futur hypothétique où l'intelligence artificielle surpasse l'intelligence humaine et évolue potentiellement hors du contrôle de l'homme. Elle est souvent associée à des scénarios dans lesquels les machines deviennent conscientes d'elles-mêmes et constituent une menace pour l'humanité. Cependant, tous les experts ne croient pas que l'IAG mènera à la singularité, et certains pensent que le développement de l'IAG pourrait ne jamais se produire. Jusqu'à présent, l'AGI reste un élément de base de la science-fiction, comme en témoignent les films hollywoodiens de science-fiction dystopique.
Calendrier de l'IA : Quelles sont les prévisions des experts en intelligence artificielle pour l'avenir ?
Selon une enquête menée par Our World in Data, les prévisionnistes estiment qu'il y a une chance sur deux pour qu'une « intelligence artificielle générale » soit « conçue, testée et annoncée publiquement » d'ici 2040, c'est-à-dire dans moins de 20 ans. Aujourd'hui, Translated, une société de traduction, a mis au point un indicateur, le Time to Edit (TTE), pour calculer le temps nécessaire aux rédacteurs humains professionnels pour corriger les traductions générées par l'IA par rapport aux traductions humaines. Cela pourrait aider à quantifier la vitesse à laquelle nous nous rapprochons de la singularité.
Translated a calculé qu'il faut environ une seconde à un traducteur humain pour corriger chaque mot produit par un autre traducteur humain. En 2015, les rédacteurs professionnels mettaient environ 3,5 secondes par mot pour réviser une suggestion traduite par une machine. À l'heure actuelle, ce délai a été ramené à 2 secondes. Si cette tendance se poursuit, Translated prévoit que sa technologie d'IA atteindra la qualité de la traduction humaine d'ici la fin de la décennie, voire plus tôt.
Progression vers la singularité de l'IA
D'autres enquêtes menées auprès d'experts en IA aboutissent à des conclusions similaires. Dans la visualisation suivante, j'ai ajouté les échéances de deux enquêtes antérieures menées en 2018 et 2019. Il est utile d'examiner différentes enquêtes, car elles diffèrent dans leur façon de poser la question et de définir l'IA de niveau humain. Vous trouverez plus de détails sur ces études à la fin de ce texte.
Le fait qu'il y ait de si grandes différences dans les réponses montre clairement que les experts ne sont pas d'accord sur le temps qu'il faudra pour développer un tel système. Certains pensent que ce niveau de technologie ne sera jamais développé. D'autres pensent que c'est possible, mais que cela prendra beaucoup de temps. Enfin, beaucoup pensent que ce système sera mis au point dans les prochaines décennies.
Comme le soulignent les annotations, la moitié des experts ont donné une date avant 2061, et 90 % ont donné une date dans les 100 prochaines années.
Que faut-il penser des calendriers des experts en IA ?
Les enquêtes auprès des experts sont un élément d'information à prendre en compte lorsque nous réfléchissons à l'avenir de l'IA, mais nous ne devons pas surestimer les résultats de ces enquêtes. Les experts d'une technologie particulière ne sont pas nécessairement des experts capables de prédire l'avenir de cette technologie.
Les experts de nombreux domaines n'ont pas de bons antécédents en matière de prévisions concernant leur propre domaine, comme l'ont montré des chercheurs tels que Barbara Mellers, Phil Tetlock et d'autres. L'histoire de l'aviation offre un exemple frappant d'un tel échec. Wilbur Wright aurait déclaré : « J'avoue qu'en 1901, j'ai dit à mon frère Orville que l'homme ne piloterait pas avant 50 ans ». Deux ans plus tard, non seulement « l'homme » pilotait, mais ce sont ces mêmes hommes qui ont réalisé l'exploit.
En outre, ces études révèlent souvent d'importants « effets de cadrage », c'est-à-dire que deux questions logiquement identiques reçoivent des réponses très différentes en fonction de la formulation exacte des questions. La grande majorité des experts pensent que, dans les décennies à venir, il y a une chance égale de voir apparaître une technologie d'IA qui aura un impact transformateur sur notre monde. Si certains prévoient des échéances lointaines, beaucoup pensent qu'il est possible que nous disposions de très peu de temps avant l'arrivée de ces technologies.
Source : Our world in data
Et vous ?
L'IA se rapproche des capacités humaines plus rapidement que prévu ?
Quels sont les avantages et les inconvénients de l’IA qui se rapproche des capacités humaines ?
Quelles sont selon vous les limites actuelles de l’IA par rapport aux capacités humaines ?
Quels seraient les domaines où l’IA pourrait surpasser les capacités humaines ?
Voir aussi :
Les voitures autonomes seraient-elles déjà plus sûres que les conducteurs humains ? Cruise et Waymo affirment que c'est le cas
La solution du GPT-4 à l'énigme de l'œuf équilibré aurait convaincu Microsoft que l'AGI, intelligence artificielle générale, est plus proche, selon Microsoft Research
« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA