L'Intelligence Artificielle Générale, le Saint Graal de la recherche en IA
L'IAG diffère de l'intelligence artificielle étroite (ANI), qui est bonne pour des tâches spécifiques, mais manque de généralisation, et de la super intelligence artificielle (ASI), qui surpasse l'intelligence humaine dans tous les aspects. L'idée de la signification d'IAG a capturé l'imagination du public et a fait l'objet de nombreuses histoires et films de science-fiction.
Quelle est la différence entre l'IAG et l'IA ? L'IAG est souvent considérée comme le Saint Graal de la recherche sur l'IA, car elle permettrait aux systèmes d'IA d'interagir avec les humains de manière naturelle et significative, ainsi que de résoudre des problèmes complexes qui nécessitent de la créativité et du bon sens. L'une des principales caractéristiques de la signification d'IAG est la capacité de raisonner et de prendre des décisions en l'absence d'instructions ou de conseils explicites.
Un autre aspect important de la signification de l'IAG est la capacité des machines à apprendre de l'expérience et à améliorer leurs performances au fil du temps grâce à des essais et des erreurs et aux commentaires des utilisateurs humains.
Cependant, l'IAG est également insaisissable et controversée, car il n'y a pas de définition ou de mesure claire de ce qui constitue l'intelligence au niveau humain ou comment la tester. Alors, comment savons-nous si un système est une IAG ou non ?
L'un des tests les plus célèbres pour l'IAG est le test de Turing, proposé par Alan Turing en 1950. Le test de Turing implique un juge humain qui interagit avec un humain et un système d'IA par le biais de messages texte et tente de déterminer lequel est humain et lequel ne l'est pas. Si le système d'IA peut tromper le juge en lui faisant croire qu'il est humain, il réussit le test de Turing.
Toutefois, le test de Turing a été critiqué pour être trop subjectif et limité, car il n'évalue que les capacités linguistiques et non d'autres aspects de l'intelligence tels que la perception, la mémoire ou l'émotion. De plus, certains systèmes d'IA peuvent réussir le test de Turing en utilisant des astuces ou des tromperies plutôt qu'une compréhension ou un raisonnement authentiques.
Par conséquent, certains experts en IA ont proposé des tests alternatifs pour l'IAG, comme fixer un objectif pour le système d'IA et le laisser déterminer comment l'atteindre par lui-même. Par exemple, Yohei Nakajima de la société de capital-risque Untapped a donné à un système d'IA l'objectif de démarrer et de développer une entreprise et lui a indiqué que sa première tâche était de déterminer quelle devrait être sa première tâche. Le système d'IA a ensuite recherché sur Internet des informations pertinentes et a appris à créer un plan d'affaires, une stratégie de marketing, etc.
Ce type d'apprentissage autonome et de résolution de problèmes est l'une des caractéristiques de l'IAG, car il montre que le système d'IA peut s'adapter à de nouvelles situations et utiliser sa propre initiative. Cependant, cela soulève également des questions éthiques et sociales, telles que la manière de garantir que les objectifs du système d'IA sont alignés sur les valeurs et les intérêts humains et la manière de réglementer ses actions et ses impacts. L'une des principales promesses du sens IAG est de créer des machines capables de résoudre des problèmes complexes qui dépassent les capacités des experts humains.
Sam Altman compare sa vision de l'IAG à un « humain médian »
Dans un article récemment publié dans le New Yorker, Sam Altman, PDG d'OpenAI, a comparé sa vision de l'IAG à un « humain médian ». Il a déclaré : «*Pour moi, une IAG est l'équivalent d'un humain médian que vous pourriez embaucher comme collègue.*»
Ce n'est pas la première fois qu'Altman fait référence à un humain médian. Dans un podcast de 2022, Altman a déclaré que cette IA pourrait « faire tout ce que vous seriez heureux qu'un collègue à distance fasse juste derrière un ordinateur, ce qui inclut apprendre à devenir médecin, apprendre à devenir un codeur très compétent ».
C’est une affirmation déconcertante, étant donné que cela pourrait laisser croire qu’Altman cherche à remplacer le travail des « gens normaux » par une IAG qui n'est pas encore disponible.
D'ailleurs, qu’est-ce qu’un humain médian ? Comment Altman, ou quiconque, pourrait-il déterminer une définition globale pour cette moyenne statistique ? Et pourquoi utiliser ce mot spécifique, qui semble réduire la diversité et la complexité de l’expérience humaine ?
Sam Altman
Une comparaison qui n'est pas nouvelle, bien que dérangeante à cause de l'individu qui la formule
La comparaison avec l’intellect humain médian n’est pas nouvelle. Comme le note l'écrivain Elizabeth Weil dans son profil Altman, le terme est utilisé par « beaucoup dans la bulle technologique ». Le terme est utilisé par les initiés de l'IA dans des forumes de discussion.
Un rapport d'août de McKinsey a adopté des critères similaires, notamment un graphique des capacités techniques dans lequel l'IA générative devrait atteindre le « niveau médian de performance humaine » d'ici la fin de la décennie.
Utiliser spécifiquement le mot « médiane » semble également être un choix distinct – et révélateur. C’est un terme fragile qui pourrait laisser beaucoup de place à l’interprétation. On ne sait pas clairement comment Altman, ou n’importe qui d’autre, pourrait déterminer une définition holistique de cette moyenne statistique. Quoi qu’il en soit, une telle quantification de l’expérience humaine semble à bien des égards déshumanisante, surtout lorsqu'il est utilisé par les responsables de modèles d'IA puissants comme le GPT-4 d'OpenAI.
« Comparer l'IA à l'idée même d'humains médians ou moyens est un peu offensant », a déclaré Brent Mittelstadt, directeur de recherche à l'Oxford Internet Institute. « Je considère la comparaison comme préoccupante et la terminologie comme étant également préoccupante ».
Middlestadt n’est pas le seul à formuler cette critique.
« Il est intéressant d'utiliser le terme humain médian - qui est très différent de l'humain moyen », a déclaré Henry Shevlin, éthicien de l'IA et professeur à l'Université de Cambridge. « Cela rend la citation encore plus dégueulasse ». « Il y a de bonnes raisons de penser que Sam Altman pourrait être plus sensible à ce sujet », a-t-il ajouté.
Cependant, Shevlin a déclaré que le profil n'était pas destiné à être un article scientifique et qu'un certain niveau de quantification était nécessaire dans ce domaine complexe.
« Une chose que les architectures et les modèles d'IA actuels ont montré, c'est qu'ils peuvent atteindre des performances fondamentalement typiques au niveau humain. Cela n'est pas problématique en soi », a-t-il déclaré. « J'ai l'impression que lorsque nous abordons des questions comme l'intelligence, les gens sont plus susceptibles, et il y a de bonnes raisons à cela ».
L'une des raisons est que la pratique consistant à tenter de quantifier l'intelligence a été entachée de racisme scientifique, même si, a ajouté Shevlin, cela ne pose pas de problème en soi.
Mittelstadt a déclaré que ce lien était rarement étayé par une « comparaison concrète et mesurable de l’intelligence humaine ». Il a déclaré: « Je pense que c'est un concept intentionnellement vague par rapport à une signification très spécifique ». « Il existe tous ces différents critères qui sont utilisés pour évaluer les performances des modèles de langage ou AGI », a-t-il continué. « Ils font peut-être référence au QI, par exemple, mais cela pose toutes sortes de problèmes ».
Les mesures traditionnelles permettant de comparer l’IA et l’intelligence humaine ont tendance à se concentrer sur les capacités plutôt que sur l’intellect général.
Sam Altman voit dans le revenu universel de base une réponse à la perte massive d'emplois
Par le passé, la technologie affectait les travailleurs peu qualifiés et à faible revenu qui se formaient par la suite pour occuper des emplois mieux rémunérés. Pourtant, une étude de Goldman Sachs indique que les dernières avancées en matière d'intelligence artificielle pourraient conduire à l'automatisation d'un quart du travail effectué aux États-Unis et dans la zone euro, exposant l'équivalent de 300 millions de travailleurs à temps plein dans les grandes économies à l'automatisation. Les avocats et le personnel administratif seraient parmi ceux qui risquent le plus d'être licenciés.
La solution de Sam Altman à ce problème est le revenu de base universel (RBU), un revenu versé régulièrement par le gouvernement à un niveau uniforme à chaque adulte, quel que soit son statut d’emploi, son revenu ou sa richesse, pour fournir un filet de sécurité. « [...] une société qui n'offre pas suffisamment d'égalité des chances pour que chacun progresse n'est pas une société qui durera », a écrit Altman dans un billet de blog en 2021. La politique fiscale telle que nous l'avons connue sera encore moins capable de lutter contre les inégalités à l'avenir, a-t-il poursuivi. « Bien que les gens aient toujours des emplois, bon nombre de ces emplois ne créeront pas beaucoup de valeur économique dans la façon dont nous pensons à la valeur aujourd'hui ». Il a proposé qu'à l'avenir - une fois que l'IA « produirait la plupart des biens et services de base dans le monde » - un fonds pourrait être créé en taxant la terre et le capital plutôt que le travail. Les dividendes de ce fonds pourraient être distribués à chaque individu pour qu'il les utilise à sa guise - « pour une meilleure éducation, des soins de santé, un logement, la création d'une entreprise, peu importe », a écrit Altman.
Le RBU assurerait donc la sécurité du revenu tout en créant des incitations à quitter les emplois mal rémunérés pour des options plus risquées mais potentiellement plus lucratives, comme le travail indépendant, l’entrepreneuriat ou la formation continue. Le climat d’innovation qui en résulte réduit la dépendance aux bas salaires et le besoin de concurrencer la technologie. Avec un revenu garanti qui ne dépend pas de la recherche d’emploi, les travailleurs ne prendront un emploi que s’ils le trouvent attrayant, ce qui diminue le déclassement et améliore leur pouvoir de négociation.
Source : NYMag
Et vous ?
Qu’est-ce que vous pensez de l’objectif de Sam Altman de créer une IAG qui a la même intelligence qu’un humain médian ?
Est-ce que vous trouvez cette comparaison entre l’IA et les humains médians offensante ou problématique ? Pourquoi ou pourquoi pas ?
Comment définiriez-vous un humain médian ? Quels sont les critères ou les indicateurs que vous utiliseriez ?
Quelles sont les conséquences potentielles de remplacer les humains médians par l’IAG sur le plan social, économique et politique ?
Quel rôle devraient jouer les humains médians dans la conception et la gouvernance de l’AGI ? Comment assurer leur participation et leur représentation ?
Le Revenu de Base Universel est-il une réponse adaptée à l’automatisation menée par l’IA ? D'ailleurs, comment serait financé et distribué ce RBU ?