IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ingénieur en IA d'OpenAI affirme avoir réalisé l'AGI : « Nous avons déjà réalisé l'AGI... ce que nous avons est "meilleur que la plupart des humains pour la plupart des tâches".»

Le , par Jade Emy

241PARTAGES

6  0 
Un ingénieur en IA d'OpenAI affirme avoir réalisé l'AGI : « Nous avons déjà réalisé l'AGI... ce que nous avons est "meilleur que la plupart des humains pour la plupart des tâches".»

Un ingénieur en IA d'OpenAI a déclaré que l'AGI a déjà été atteinte. Il déclare notamment que "Nous ne sommes pas parvenus à "faire mieux que n'importe quel humain pour n'importe quelle tâche", mais à "faire mieux que la plupart des humains pour la plupart des tâches."

L'AGI est considérée comme l'objectif final de la recherche sur l'IA, le Saint Graal pour les entreprises d'IA. Sam Altman, PDG d'OpenAI, a affirmé qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés. Il a expliqué que le but est de construire l'intelligence artificielle générale (AGI) et que la fin justifie les moyens. Il a également déclaré que GPT-4 est la technologie la plus stupide que le monde aura à utiliser. Ce qui laisse suggérer que GPT-5 ne ressemblera en rien aux modèles d'IA précédents d'OpenAI et devrait être une évolution majeure de l'IA générative.

L'AGI ou l'intelligence artificielle générale est une IA dite "forte" qui devrait être capable de penser au même titre que les humains et de s'attaquer n'importe quelle tâche. L'industrie s'attend à ce que l'AGI soit capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. Mais bien que l'IA se soit considérablement développée à ce jour, pour beaucoup, ses capacités restent extrêmement limitées et elle est encore loin d'atteindre l'AGI.

Récemment, un ingénieur en IA d'OpenAI a déclaré que l'AGI a déjà été atteinte. Voici ces propos:

À mon avis, nous avons déjà atteint l'AGI et c'est encore plus clair avec O1. Nous ne sommes pas parvenus à « faire mieux que n'importe quel humain pour n'importe quelle tâche », mais à « faire mieux que la plupart des humains pour la plupart des tâches ». Certains disent que les LLM ne savent que suivre une recette. Tout d'abord, personne ne peut vraiment expliquer ce qu'un réseau neuronal profond de mille milliards de paramètres peut apprendre. Mais même si vous croyez cela, la méthode scientifique dans son ensemble peut être résumée par une recette : observer, émettre des hypothèses et vérifier. Les bons scientifiques peuvent produire de meilleures hypothèses sur la base de leur intuition, mais cette intuition elle-même a été construite par de nombreux essais et erreurs. Il n'y a rien qui ne puisse être appris avec des exemples.


Cette déclaration semble en accord aux précédentes annonces de Sam Altman. Il avait récemment déclaré : "Je pense que nous atteindrons l'AGI plus tôt que ne le pensent la plupart des gens dans le monde et que cela aura beaucoup moins d'importance. Et une grande partie des préoccupations en matière de sécurité que nous et d'autres avons exprimées ne se posent pas au moment de l'AGI. L'AGI peut être construite, le monde continue à peu près de la même manière, les choses se développent plus rapidement, mais il y a ensuite une longue suite entre ce que nous appelons l'AGI et ce que nous appelons la superintelligence."

Ces propos du PDG d'OpenAI admettent l'arrivée imminente de l'AGI, peut-être dès 2025, mais ils donnent également l'impression que la définition de l'AGI par OpenAI est désormais moins grandiose qu'elle ne l'était auparavant. Sam Altman avait même déclaré : "Je m'attends à ce que la perturbation économique prenne un peu plus de temps que les gens ne le pensent parce qu'il y a beaucoup d'inertie dans la société. Ainsi, au cours des deux premières années, il n'y aura peut-être pas beaucoup de changements. Ensuite, il se peut que beaucoup de choses changent."

Pour les observateurs de l'écosystème de l'IA, ces déclarations viennent s'ajouter aux battages médiatiques déjà énormes sur l'AGI. Un critique avait déclaré en 2023 : "L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas." Dana Blankenhorn, journaliste technologique, avait affirmé que l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas.

Son analyse suggère que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché. Son point de vue fait toutefois l'objet de controverses.


Et vous ?

Pensez-vous que ces déclarations de l'ingénieur d'OpenAI sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'intelligence générale artificielle (AGI) dans 3 ans, d'après James Betker, ingénieur chez OpenAI, serait un agent incarné généralement intelligent

Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir, « Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu »

Le chercheur en IA Max Tegmark estime qu'il faut mettre un terme aux progrès de l'IA et empêcher la création des AGI, en veillant à ce que l'IA ne devienne qu'un outil et non une superintelligence
Vous avez lu gratuitement 1 580 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 22/10/2025 à 11:19
Citation Envoyé par Ryu2000 Voir le message

Il y a énormément d'argent qui est investit dans la recherche et le développement, on ne peut pas savoir quelles avancées technologiques auront lieu.
Le cerveau humaine reste et restera pour les prochaines années un mystère.

Donc dupliquer cela d'une quelconque manière que ce soit semble une fiction...

On simule un tant soit peu intelligence humaine pour les non initiés et pof c'est magique, dans 2 semaines on va se faire remplacé par une IA. Mais quand on scrute un peu en profondeur ... Bon voila quoi
5  0 
Avatar de
https://www.developpez.com
Le 15/12/2025 à 19:02
Une seule issue : la puce quantique. Mais là, on fait déjà des capteurs équipés de puces quantiques (Thales), mais pour le QPU, il va falloir attendre encore quelques années. Quandela a déjà livré ses premiers ordinateurs quantiques. Au début ils étaient très techniques mais, récemment, ils l'ont rendu transparent pour l'utilisateur donc le codeur. source Pascale Senellart au Collège de France.

edit : le lien de l'entretien source
5  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 16/12/2025 à 8:28
Citation Envoyé par Artaeus Voir le message
Le progrès technologique avance et c'est une très bonne chose.
En théorie, et à une époque hélas révolue, j'aurais été entièrement d'accord. Aujourd'hui, je ne suis pas sûr que ce soit une bonne chose...
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/12/2025 à 11:22
Citation Envoyé par marsupial Voir le message
Ça ne se décide pas à l'échelle d'un pays mais de toute la planète. Ainsi, seuls 11% des jobs sont remplaçables par l'IA actuelle. Encore insuffisant pour justifier une modification du système dans l'immédiat. Donc je répète ma réponse initiale : seule issue, la puce quantique.
Ah bon, il y a 11% de managers?

Okay, je sors. On n'est pas encore vendredi...
6  1 
Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 11/12/2024 à 17:33
Triste comme ces personnes peuvent fumer de la moquette !
Ils sont donc arrivé à faire une AI Générale !
Alors plus d'hallucinations, de mensonges, de biais ! Wahoo !!!
Cette AIG est capable d'évaluer la pertinence de ce qu'elle dit avec les sources ? De tester la robustesse des données de sa base d'intelligence ? D'en demander de supplémentaires car elle ne peut répondre a la question posée ? ...
Ah ! Non... Crottes !!!

Les IA des modèles actuels sont des perroquets scolastiques qui proposent le plus probable et normalement (malheureusement) incapables de produire une idée neuve par rapport à sa base d' apprentissage.
La connaissance encyclopédique n'est pas de l'intelligence, c'est juste bluffant.
Si cette iag fait de l'inférence, quelles sont les domaines mathématiques qu'elle aurait déjà épuisé ? Les trucs sympas qu'elle a démontré avec plus de finesse que l'humain ?
Altman sera mort avant que l'humanité le voit. Il est jeune Altman...
4  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 30/12/2024 à 10:02
Citation Envoyé par Mat.M Voir le message
ça c'est un truc bien français la technophobie.
Et si un jour vous avez une pathologie et que votre médecin interroge un système d'I.A. pour établir un diagnostic afin de guérir rapidement ?
C'est un truc bien français de mépriser les français. Intéressante proposition récursive... J'ai l'impression que c'est dû au fait que nous nous croyons au centre du monde, un peu comme les américains: Non les français ne sont pas plus technophobes que les autres, mais il faudrait s'intéresser aux autres pour s'en rendre compte.
J'ai vécu dans plusieurs pays, et je peux t'assurer que l'immense majorité des poncifs sur les français sont faux.

Je ne suis pas technophobe, mais je suis critique.
De toutes façons, je pense qu'il y a quiproquo: Je critiquais l'utilisation des LLM, pas de l'IA en général.
4  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/07/2025 à 22:15
Citation Envoyé par Artemus24 Voir le message
Si je prends le cas de ChatGPT, il se sert de l'internet comme base de données pour effectuée une recherche. Rien à voir avec un quelconque apprentissage. Il peut même retourner de fausses informations puisqu'il est incapable de comprendre le sens même de la question posée. C'est en cela que je dis que pour l'instant, l'IA est une fumisterie, car ce que l'on nous présente n'est pas une IA générative et n'a aucune capacité d'apprentissage, juste une recherche améliorée.
Si si, c'est de l'apprentissage, mais tu es tombé dans le piège marketing de l'IA. Ce que l'IA générative apprend, ce n'est pas le savoir que tu trouves sur internet. C'est comment écrire du contenu qui ressemble à ce que tu trouves sur internet. C'est très différent et ça éclaire beaucoup de choses.

ChatGPT, Mistral, Claude, Gemini, et des milliers d'autres LLM qu'on peut trouver sur Hugging Face, y compris des équivalents des modèles commerciaux précédents, sont bel et bien basé sur l'apprentissage. Quand tu fais une requête, le principe de base du LLM n'est pas de faire une recherche sur internet. Il ne l'utilise pas lors de ta requête. Le LLM a été entrainé auparavant sur le contenu internet, comme AlphaGo a été entrainé sur des parties existantes de Go avant de jouer ses matchs. Mais là où AlphaGo a appris à jouer au Go, les LLM apprennent à générer du texte humain : ce qui vient après "le chat a mangé la" est de toute évidence "souris", parce que c'est ça le plus probable dans un texte humain. Peu importe que ce soit vrai ou pas, c'est statistiquement le plus probable. Un LLM génère du texte cohérent, et non pas vrai, c'est fondamental à comprendre car c'est la raison pour laquelle il peut fournir de fausses informations. On appelle ça des illusions mais ça n'a rien de spécial : c'est la limite fondamentale d'un LLM. La ressemblance à du texte humain est tout ce qui compte, la vérité il ne la connais pas. Internet sert à l'entrainement, mais à l'usage il génère une réponse sur la base de ce qu'il en a retenu, sans l'utiliser à nouveau.

Maintenant les LLM peuvent être augmentés par différents outils, et pour comprendre comment ça fonctionne il faut comprendre que plus on donne de contexte et plus le LLM pourra générer une réponse orientée. Par exemple, si tu ajoute comme contexte "Dans un monde où les plus petits mangent les plus gros" ce qui vient après "le chat a mangé la" pourrais bien être autre chose que "souris", genre "vache", car ça ne serait pas cohérent avec ce qui a été écrit avant. Ainsi, apporter du contexte permet d'orienter la réponse pour que le LLM génère une réponse cohérente qui va dans le sens qui nous intéresse. Cela reste statistique, on n'aura pas forcément ce qu'on veut, mais les chances augmentent.

Une fois qu'on sait exploiter le contexte, on peut utiliser des outils du genre récupération de données sur internet. On les ajoute au contexte avant de demander de répondre. La réponse sera donc influencée par ce qu'on a ajouté au contexte. Toujours dans le but de générer du texte cohérent, et non pas vrai. Tu peux ajouter des pages Web, des PDFs, des images (pour les modèles qui savent les traiter) et autres données au format textuel (CSV, Markdown, XML, JSON, etc.). Si tu demandes "Décrit moi les caractéristiques d'un transistor BD777", il te sortira quelque chose qui ressemble à une description technique de transistor, mais si tu compares à la datasheet ça sera surement du pur bullshit. Si tu lui donnes la datasheet en contexte, la même question te retournera quelque chose de bien plus proche de la réalité, peut-être même parfaitement correct. Pas parce que c'est ce qui est vrai (il peut toujours sortir du bullshit) mais parce que c'est cohérent avec le contexte donné avec la requête.

Une fois qu'on a compris ça, on a compris qu'il ne faut jamais faire aveuglément confiance à un LLM. Il faut soit lui demander des trucs où on se fiche de l'aspect véridique (e.g. role play, création d'histoire, etc.) soit lui demander des trucs dont on sait pertinement qu'on passera derrière pour vérifier (ou un tiers de confiance, genre une suite de tests valides pour du code généré par IA). On peut être surpris de voir quelque chose qui semble fonctionner à la perfection, mais on n'est jamais à l'abri d'un dérapage complet.

Tout comme AlphaGo est très bon pour jouer au Go, les LLM sont très bon pour générer du texte cohérent. Mais comme on ne demandera pas à AlphaGo d'expliquer ses coups, on ne demandera pas au LLM de dire des choses factuellement vraies. Il n'en sont juste pas capables car pas entraînés pour ça. La phase de fine tuning qui vient après l'apprentissage oriente le type de discours du LLM, mais ça ne corrige pas complètement ses lacunes fondamentales.

À voir ce qu'il en sera avec ce que Yann Lecun nous sortira.
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 16/12/2025 à 17:00
,

Citation Envoyé par Jon Shannow Voir le message
En théorie, et à une époque hélas révolue, j'aurais été entièrement d'accord. Aujourd'hui, je ne suis pas sûr que ce soit une bonne chose...
Il y a deux vieux adages qui sont toujours valable de nos jours...

1. On arrête pas le progrès.
2. Le progrès ne vaut que s'il est partager par tous.

Le 1 est inévitable, c'est dans la nature humaine, de comprendre ce qui lui échappe, d'explorer.
C'est le 2 qui pose soucis, car le "progrès" n'est pas "partager" véritablement, ni même son utilisation ni le bénéfice qu'on peut en retirer.

Parfois, avec le temps, ça se diffuse, mais il faut souvent bien trop de temps...

C'était ma petite réflexion du jour

BàV et Peace & Love.
4  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 19/12/2025 à 9:03
@ Gluups : cette compétition d'avirons, je la connais depuis le siècle dernier, avec comme compétiteur IBM, Bull et une société de service.
La suite, on la connait. Le plus drôle dans l'histoire est que ce genre de contexte existe réellement.
4  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 20/01/2026 à 16:20
Il n’y a absolument rien qui puisse être qualifié de bombe, car il a été démontré depuis longtemps que les modèles de langage basés sur les Transformers ne peuvent pas atteindre l’AGI.
Et il est tout aussi évident qu'ils sont au courant chez OpenAI.
4  0