IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman laisse entendre qu'il veut remplacer les « humains médians » par une Intelligence Artificielle Générale
Des propos qui ont suscité la controverse

Le , par Stéphane le calme

52PARTAGES

13  0 
Sam Altman, le PDG d’OpenAI, une entreprise qui développe des technologies d’intelligence artificielle (IA) avancées, a déclaré qu’il espérait que l’IA générale (IAG), c’est-à-dire une IA capable de réaliser n’importe quelle tâche intellectuelle qu’un humain peut faire, aurait à peu près la même intelligence qu’un « humain médian que vous pourriez embaucher comme collègue ». Cette affirmation est inquiétante, car l'une des interprétations pourrait être qu'Altman cherche à remplacer le travail des « gens normaux » par une IAG qui n’existe pas encore.

L'Intelligence Artificielle Générale, le Saint Graal de la recherche en IA

L'IAG diffère de l'intelligence artificielle étroite (ANI), qui est bonne pour des tâches spécifiques, mais manque de généralisation, et de la super intelligence artificielle (ASI), qui surpasse l'intelligence humaine dans tous les aspects. L'idée de la signification d'IAG a capturé l'imagination du public et a fait l'objet de nombreuses histoires et films de science-fiction.

Quelle est la différence entre l'IAG et l'IA ? L'IAG est souvent considérée comme le Saint Graal de la recherche sur l'IA, car elle permettrait aux systèmes d'IA d'interagir avec les humains de manière naturelle et significative, ainsi que de résoudre des problèmes complexes qui nécessitent de la créativité et du bon sens. L'une des principales caractéristiques de la signification d'IAG est la capacité de raisonner et de prendre des décisions en l'absence d'instructions ou de conseils explicites.

Un autre aspect important de la signification de l'IAG est la capacité des machines à apprendre de l'expérience et à améliorer leurs performances au fil du temps grâce à des essais et des erreurs et aux commentaires des utilisateurs humains.

Cependant, l'IAG est également insaisissable et controversée, car il n'y a pas de définition ou de mesure claire de ce qui constitue l'intelligence au niveau humain ou comment la tester. Alors, comment savons-nous si un système est une IAG ou non ?

L'un des tests les plus célèbres pour l'IAG est le test de Turing, proposé par Alan Turing en 1950. Le test de Turing implique un juge humain qui interagit avec un humain et un système d'IA par le biais de messages texte et tente de déterminer lequel est humain et lequel ne l'est pas. Si le système d'IA peut tromper le juge en lui faisant croire qu'il est humain, il réussit le test de Turing.

Toutefois, le test de Turing a été critiqué pour être trop subjectif et limité, car il n'évalue que les capacités linguistiques et non d'autres aspects de l'intelligence tels que la perception, la mémoire ou l'émotion. De plus, certains systèmes d'IA peuvent réussir le test de Turing en utilisant des astuces ou des tromperies plutôt qu'une compréhension ou un raisonnement authentiques.

Par conséquent, certains experts en IA ont proposé des tests alternatifs pour l'IAG, comme fixer un objectif pour le système d'IA et le laisser déterminer comment l'atteindre par lui-même. Par exemple, Yohei Nakajima de la société de capital-risque Untapped a donné à un système d'IA l'objectif de démarrer et de développer une entreprise et lui a indiqué que sa première tâche était de déterminer quelle devrait être sa première tâche. Le système d'IA a ensuite recherché sur Internet des informations pertinentes et a appris à créer un plan d'affaires, une stratégie de marketing, etc.

Ce type d'apprentissage autonome et de résolution de problèmes est l'une des caractéristiques de l'IAG, car il montre que le système d'IA peut s'adapter à de nouvelles situations et utiliser sa propre initiative. Cependant, cela soulève également des questions éthiques et sociales, telles que la manière de garantir que les objectifs du système d'IA sont alignés sur les valeurs et les intérêts humains et la manière de réglementer ses actions et ses impacts. L'une des principales promesses du sens IAG est de créer des machines capables de résoudre des problèmes complexes qui dépassent les capacités des experts humains.


Sam Altman compare sa vision de l'IAG à un « humain médian »

Dans un article récemment publié dans le New Yorker, Sam Altman, PDG d'OpenAI, a comparé sa vision de l'IAG à un « humain médian ». Il a déclaré : «*Pour moi, une IAG est l'équivalent d'un humain médian que vous pourriez embaucher comme collègue.*»

Ce n'est pas la première fois qu'Altman fait référence à un humain médian. Dans un podcast de 2022, Altman a déclaré que cette IA pourrait « faire tout ce que vous seriez heureux qu'un collègue à distance fasse juste derrière un ordinateur, ce qui inclut apprendre à devenir médecin, apprendre à devenir un codeur très compétent ».

C’est une affirmation déconcertante, étant donné que cela pourrait laisser croire qu’Altman cherche à remplacer le travail des « gens normaux » par une IAG qui n'est pas encore disponible.

D'ailleurs, qu’est-ce qu’un humain médian ? Comment Altman, ou quiconque, pourrait-il déterminer une définition globale pour cette moyenne statistique ? Et pourquoi utiliser ce mot spécifique, qui semble réduire la diversité et la complexité de l’expérience humaine ?


Sam Altman

Une comparaison qui n'est pas nouvelle, bien que dérangeante à cause de l'individu qui la formule

La comparaison avec l’intellect humain médian n’est pas nouvelle. Comme le note l'écrivain Elizabeth Weil dans son profil Altman, le terme est utilisé par « beaucoup dans la bulle technologique ». Le terme est utilisé par les initiés de l'IA dans des forumes de discussion.

Un rapport d'août de McKinsey a adopté des critères similaires, notamment un graphique des capacités techniques dans lequel l'IA générative devrait atteindre le « niveau médian de performance humaine » d'ici la fin de la décennie.

Utiliser spécifiquement le mot « médiane » semble également être un choix distinct – et révélateur. C’est un terme fragile qui pourrait laisser beaucoup de place à l’interprétation. On ne sait pas clairement comment Altman, ou n’importe qui d’autre, pourrait déterminer une définition holistique de cette moyenne statistique. Quoi qu’il en soit, une telle quantification de l’expérience humaine semble à bien des égards déshumanisante, surtout lorsqu'il est utilisé par les responsables de modèles d'IA puissants comme le GPT-4 d'OpenAI.

« Comparer l'IA à l'idée même d'humains médians ou moyens est un peu offensant », a déclaré Brent Mittelstadt, directeur de recherche à l'Oxford Internet Institute. « Je considère la comparaison comme préoccupante et la terminologie comme étant également préoccupante ».

Middlestadt n’est pas le seul à formuler cette critique.

« Il est intéressant d'utiliser le terme humain médian - qui est très différent de l'humain moyen », a déclaré Henry Shevlin, éthicien de l'IA et professeur à l'Université de Cambridge. « Cela rend la citation encore plus dégueulasse ». « Il y a de bonnes raisons de penser que Sam Altman pourrait être plus sensible à ce sujet », a-t-il ajouté.

Cependant, Shevlin a déclaré que le profil n'était pas destiné à être un article scientifique et qu'un certain niveau de quantification était nécessaire dans ce domaine complexe.

« Une chose que les architectures et les modèles d'IA actuels ont montré, c'est qu'ils peuvent atteindre des performances fondamentalement typiques au niveau humain. Cela n'est pas problématique en soi », a-t-il déclaré. « J'ai l'impression que lorsque nous abordons des questions comme l'intelligence, les gens sont plus susceptibles, et il y a de bonnes raisons à cela ».

L'une des raisons est que la pratique consistant à tenter de quantifier l'intelligence a été entachée de racisme scientifique, même si, a ajouté Shevlin, cela ne pose pas de problème en soi.

Mittelstadt a déclaré que ce lien était rarement étayé par une « comparaison concrète et mesurable de l’intelligence humaine ». Il a déclaré: « Je pense que c'est un concept intentionnellement vague par rapport à une signification très spécifique ». « Il existe tous ces différents critères qui sont utilisés pour évaluer les performances des modèles de langage ou AGI », a-t-il continué. « Ils font peut-être référence au QI, par exemple, mais cela pose toutes sortes de problèmes ».

Les mesures traditionnelles permettant de comparer l’IA et l’intelligence humaine ont tendance à se concentrer sur les capacités plutôt que sur l’intellect général.


Sam Altman voit dans le revenu universel de base une réponse à la perte massive d'emplois

Par le passé, la technologie affectait les travailleurs peu qualifiés et à faible revenu qui se formaient par la suite pour occuper des emplois mieux rémunérés. Pourtant, une étude de Goldman Sachs indique que les dernières avancées en matière d'intelligence artificielle pourraient conduire à l'automatisation d'un quart du travail effectué aux États-Unis et dans la zone euro, exposant l'équivalent de 300 millions de travailleurs à temps plein dans les grandes économies à l'automatisation. Les avocats et le personnel administratif seraient parmi ceux qui risquent le plus d'être licenciés.

La solution de Sam Altman à ce problème est le revenu de base universel (RBU), un revenu versé régulièrement par le gouvernement à un niveau uniforme à chaque adulte, quel que soit son statut d’emploi, son revenu ou sa richesse, pour fournir un filet de sécurité. « [...] une société qui n'offre pas suffisamment d'égalité des chances pour que chacun progresse n'est pas une société qui durera », a écrit Altman dans un billet de blog en 2021. La politique fiscale telle que nous l'avons connue sera encore moins capable de lutter contre les inégalités à l'avenir, a-t-il poursuivi. « Bien que les gens aient toujours des emplois, bon nombre de ces emplois ne créeront pas beaucoup de valeur économique dans la façon dont nous pensons à la valeur aujourd'hui ». Il a proposé qu'à l'avenir - une fois que l'IA « produirait la plupart des biens et services de base dans le monde » - un fonds pourrait être créé en taxant la terre et le capital plutôt que le travail. Les dividendes de ce fonds pourraient être distribués à chaque individu pour qu'il les utilise à sa guise - « pour une meilleure éducation, des soins de santé, un logement, la création d'une entreprise, peu importe », a écrit Altman.

Le RBU assurerait donc la sécurité du revenu tout en créant des incitations à quitter les emplois mal rémunérés pour des options plus risquées mais potentiellement plus lucratives, comme le travail indépendant, l’entrepreneuriat ou la formation continue. Le climat d’innovation qui en résulte réduit la dépendance aux bas salaires et le besoin de concurrencer la technologie. Avec un revenu garanti qui ne dépend pas de la recherche d’emploi, les travailleurs ne prendront un emploi que s’ils le trouvent attrayant, ce qui diminue le déclassement et améliore leur pouvoir de négociation.

Source : NYMag

Et vous ?

Qu’est-ce que vous pensez de l’objectif de Sam Altman de créer une IAG qui a la même intelligence qu’un humain médian ?
Est-ce que vous trouvez cette comparaison entre l’IA et les humains médians offensante ou problématique ? Pourquoi ou pourquoi pas ?
Comment définiriez-vous un humain médian ? Quels sont les critères ou les indicateurs que vous utiliseriez ?
Quelles sont les conséquences potentielles de remplacer les humains médians par l’IAG sur le plan social, économique et politique ?
Quel rôle devraient jouer les humains médians dans la conception et la gouvernance de l’AGI ? Comment assurer leur participation et leur représentation ?
Le Revenu de Base Universel est-il une réponse adaptée à l’automatisation menée par l’IA ? D'ailleurs, comment serait financé et distribué ce RBU ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 07/10/2023 à 12:09
Manifestement, Sam Altman peut d'ores et déjà être remplacé par une IA. N'importe laquelle, au demeurant.
1  0 
Avatar de hugotor
Membre régulier https://www.developpez.com
Le 10/10/2023 à 9:55
Pourquoi utiliserions-nous une IAG , si l'on pouvait se séparer facilement des individus qui posent un problème pour le groupe (vécu) et au delà pour l'entreprise.
1  0 
Avatar de info7777
Membre à l'essai https://www.developpez.com
Le 11/10/2023 à 18:22
je pense, en particulier, tenter de faire ressembler un robot trop un humain, ca na aucun intérêt, sauf peut être a impressionner les non informaticiens,
1  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 15/01/2024 à 12:08
Oui:
Citation Envoyé par Bruno Voir le message
Bill Gates et Sam Altman discutent des défis de l'IA, la vision idéalisée de la concurrence dans ce domaine semble négliger les risques éthiques, et les implications d'une compétition effrénée.
Mais:
Citation Envoyé par Jade Emy Voir le message
OpenAI supprime discrètement l'interdiction d'utiliser ChatGPT à des fins "militaires et de guerre", une décision lourde de conséquences à cause de l'utilisation croissante de l'IA dans les conflits
Plus un domaine brasse de l'argent, moins on se pose de questions sur l'éthique. Surtout quand ledit argent vient dans notre porte-monnaie.
1  0 
Avatar de ParseCoder
Membre averti https://www.developpez.com
Le 02/10/2023 à 18:00
Bon courage!
0  0 
Avatar de F4n1l0
Candidat au Club https://www.developpez.com
Le 03/10/2023 à 17:44
Il s'agit d'installation non ergonomique de Ctrl-X alt Man vs Vitruve Man homme médiant à l'ancienne aka tupu-RSA-pomme, AGi !
Ensuite l'espace des collègues agréables est limité. Dans un bar star wars ou même un lower deck star trek le tour interstellaire des archétypes de collègues est bouclé avant même le décollage. C'est un tour RH aussi facile à boucler que l'exobiologie vertébrée imaginable. Au pire il a l'air d'un monstre mais il aime les milk shakes car ça le réchauffe et ça lui rappelle sa maman la baleine intergalactique qui résiste aux mines impériales de l'amiral Thrawn...
Le problème stratégique c'est comment mal noter ou retarder au tableau d'avancement cet AGI qui ne demande même par sa part de compte formation alors qu'il a seulement passé le bac en simulation. Ce salaud aide déjà tous les directeurs exécutifs aux petits oignons sans "se prendre" une seule semelle. Il DOIT avoir le droit à la déconnexion et il DOIT voter aux elections syndicales sans afficher sur son front qu'il a voté nul.
1  1 
Avatar de pierre.E
Membre confirmé https://www.developpez.com
Le 07/10/2023 à 19:23
Les avocats et le personnel administratif seraient parmi ceux qui risquent le plus d'être licenciés.
une ia fonctionnaire ca promet
0  0