IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'intelligence générale artificielle (AGI) dans 3 ans, d'après James Betker, ingénieur chez OpenAI, serait un agent incarné généralement intelligent

Le , par Bruno

10PARTAGES

6  0 
James Betker, ingénieur chez OpenAI, estime que la création d'un agent incarné généralement intelligent (AGI) pourrait être réalisée en 3 ans, en contraste avec les prédictions plus conservatrices du PDG de Google DeepMind, qui anticipe une décennie, et de Shane Legg, cofondateur de DeepMind, qui évalue à 50 % la probabilité d'atteindre l'AGI d'ici 2028. Selon Betker, l'AGI doit être capable d'interagir avec un environnement complexe, de posséder un modèle robuste du monde et d'effectuer une introspection approfondie. Sam Altman, PDG d'OpenAI, minimise néanmoins les craintes d'un impact radical de l'IA, affirmant que l'AGI aura un effet moins perturbateur que prévu.

L'intelligence artificielle générale est un concept théorique d'un système d'IA aux capacités comparables à celles de l'homme. Pour atteindre ce niveau, l'IA doit exceller dans divers domaines, tels que la perception sensorielle (vue, ouïe, toucher, etc.), la motricité fine, le traitement du langage naturel, la résolution de problèmes, la navigation, la créativité, l'engagement social et émotionnel, et possiblement le bon sens. Les prévisions optimistes suggèrent que l'AGI pourrait être atteinte dans les cinq à dix prochaines années, mais certains experts estiment que cela pourrait prendre des décennies, voire des siècles.


L'atteinte de l'AGI représente un défi majeur. De plus en plus de chercheurs soutiennent que l'industrie doit revoir son approche pour y parvenir. Ils préconisent une méthode où les agents artificiels ajustent leurs réseaux neuronaux en réponse aux interactions avec leur corps et leur environnement, apprenant ainsi à naviguer dans leur milieu. Selon ces experts, cette approche est essentielle pour progresser vers l'AGI et doit être intégrée aux avancées actuelles de l'IA, notamment les grands modèles de langage.

Pour Betker, l'intelligence générale implique trois capacités essentielles : interagir avec un environnement complexe (incarnation), posséder un modèle robuste du monde pour des déductions rapides (intuition ou pensée rapide), et mener une introspection approfondie (raisonnement ou pensée lente). Un agent AGI doit avoir des objectifs et utiliser ces capacités pour imaginer, planifier et agir, tout en ajustant ses actions en fonction des résultats observés. L'agent doit pouvoir répéter ce cycle de manière cohérente sur le long terme pour optimiser ses objectifs, où l'adaptabilité et la cohérence sont cruciales.

Perspectives et développements de l'AGI

Sam Altman, PDG d'OpenAI, estime que les craintes d'une perturbation radicale du monde par l'IA sont exagérées, affirmant que l'AGI aura un impact moindre que prévu. En revanche, le PDG de Google DeepMind anticipe une intelligence artificielle de niveau humain dans une décennie. Shane Legg, cofondateur de DeepMind, évalue à 50 % la probabilité d'atteindre l'AGI d'ici 2028, suggérant d'identifier les tâches cognitives manquantes ou de créer de nouvelles références pour évaluer l'AGI. Lors de la conférence SoftBank World, Masayoshi Son a déclaré que l'AGI, surpassant l'intelligence humaine dans presque tous les domaines, pourrait voir le jour d'ici dix ans, soulignant les progrès rapides de l'IA générative. Une étude prévoit l'AGI autour de 2041, avec une possible date dès 2028, et souligne son risque existentiel potentiel pour l'humanité.

James Betker explique que les modèles mondiaux autorégressifs, tels que les omnimodèles, se développent et deviennent de plus en plus robustes grâce aux investissements. Il estime que ces modèles actuels sont suffisants pour créer un agent généralement intelligent, mettant en avant l'importance de l'interaction entre la pensée du système 2 et l'observation du monde réel pour améliorer leur robustesse. Betker est convaincu que la pensée du système 2 est réalisable avec les transformateurs et les ressources actuelles, et prévoit que cela prendra 2 à 3 ans. En ce qui concerne l'incarnation, il anticipe des progrès significatifs dans 1 à 2 ans grâce à la convergence des avancées en robotique et en IA. En intégrant ces progrès, il estime qu'il faudra 1 à 2 ans supplémentaires pour développer un cycle complet d'actions et d'apprentissages cohérents.

Le système 1 est un processus cognitif qui fonctionne de manière automatique, involontaire, intuitive, rapide et avec peu d'effort. C'est le mode de raisonnement par défaut, car il consomme moins d'énergie. Ce système est également à l'origine de la créativité, grâce aux multiples associations intuitives qu'il réalise. Par exemple, il permet aux individus de reconnaître instantanément la colère sur le visage d'une personne.

En revanche, le système 2, souvent à tort associé principalement à la pensée consciente, requiert de la concentration et de l'attention. Il est sollicité pour résoudre des problèmes complexes grâce à son approche analytique, bien qu'il soit plus lent que le premier. Ce processus intervient lorsque le premier est confronté à une situation nouvelle qu'il ne peut résoudre. Par exemple, il permet aux individus de remplir leur déclaration d'impôts.

James Betker adopte une perspective optimiste par rapport aux estimations plus prudentes de Google DeepMind. Il croit que l'intégration des avancées en robotique et en intelligence artificielle, en particulier les modèles autorégressifs et omnimodèles, est suffisante pour créer une intelligence artificielle générale capable d'interagir avec un environnement complexe, de développer une compréhension robuste du monde et d'effectuer une introspection approfondie.

Cependant, cette perspective semble sous-estimer les défis inhérents à la réalisation d'une véritable AGI. Le développement de la « pensée du système 2 », qui implique des processus déductifs et introspectifs complexes, reste un défi majeur. Bien que les technologies actuelles aient fait des progrès significatifs, elles ne sont pas encore capables de reproduire pleinement les capacités cognitives humaines. La pensée du système 2 nécessite non seulement une compréhension profonde et une modélisation des interactions complexes, mais aussi la capacité de réutiliser et d'adapter ces modèles de manière flexible et cohérente sur de longues périodes.

De plus, l'incarnation, ou la capacité des IA à interagir physiquement avec le monde, pose des défis techniques et éthiques considérables. Les avancées en robotique sont prometteuses, mais elles doivent être intégrées de manière cohérente avec les capacités cognitives de l'IA pour permettre une véritable AGI. Cette intégration nécessite non seulement des progrès technologiques, mais aussi une compréhension approfondie des interactions entre les différents composants de l'IA et de leur environnement.

Sam Altman, PDG d'OpenAI, souligne que l'impact de l'AGI sur le monde et les emplois pourrait être moins radical que prévu, ce qui suggère une approche plus prudente et mesurée. Cette perspective appelle à un équilibre entre l'optimisme et le réalisme, en reconnaissant les progrès réalisés tout en restant conscient des obstacles à surmonter.

En conclusion, bien que l'optimisme de Betker soit motivant, il est crucial de maintenir une perspective équilibrée et de reconnaître les défis techniques, conceptuels et éthiques qui demeurent. L'atteinte de l'AGI est un objectif ambitieux qui nécessitera une collaboration continue et une approche multidisciplinaire pour être réalisé de manière sûre et éthique.

Source : James Betker, OpenAI engineer, in a post

Et vous

Quel est votre avis sur ce sujet ?

L'analyse de James Betker est-elle pertinente ?

Voir aussi :

L'un des fondateurs de DeepMind pense qu'il y a une probabilité de 50 % que l'AGI existe d'ici 2028, certains estiment qu'il y a des chances que, l'AGI prenne le contrôle de l'humanité et la détruise

L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue, testée et annoncée publiquement d'ici 2040

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 22/07/2024 à 16:33
Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ?
La question devrait-être : Devrait-on encore penser par nous même à l'ère de l'IA ?
Bon, déjà qu'une bonne partie ne font que reprendre la pensée de pseudo journalistes (qui sont plus des épandeurs d'idées pré-machées)
13  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 7:35
Citation Envoyé par Jade Emy Voir le message
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Bien sur, nous savons tous que le climat c'est comme une voiture, quand il est cassé on le répare, avec des tournevis et du WD40.
Bien sur, nous savons tous, surtout depuis la physique quantique, que la physique est un domaine fini que nous mettons du temps à découvrir parce que nous sommes médiocres.
Quel est votre avis sur le sujet ?
Sam Altman est un clown qui ne sait pas de quoi il parle.
Mais il le dit surement mieux que moi parce qu'il lève des millions d'euros avec ce genre d'intervention.
Sam Altman prévoit que l'IA sera une ressource qui fera l'objet de guerres et deviendra principalement un outil pour les riches.[...]
Bref la même chose qu'aujourd'hui mais en pire
[...]Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
Ah beh tout va bien alors...
Ceci dit non seulement on va réparer le climat et découvrir la physique mais en plus se sera monnaie courante...
11  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/07/2024 à 9:34
Citation Envoyé par calvaire Voir le message
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter

De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.

Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.

Si vous voyez ou je veux en venir. Le loup et le troupeau.
10  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 11:13
Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
MDR, l'IA, dont l'entraînement et l'utilisation des modèles génèrent d'importantes émissions de CO2 et dont les centres de données nécessaires à son fonctionnement consomment d'importantes quantités d'eau pour le refroidissement, serait bon pour le climat !!!
9  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 22/07/2024 à 16:53
le PDG de Nvidia, Jensen Huang, a déclaré que, même à ce stade précoce de la révolution de l'IA générative, la programmation n'est plus une compétence vitale.
Cela revient à dire que l'on sera dépendant de l'IA pour faire n'importe quoi. Et si l'IA tombe en panne, devra-t-on attendre qu'il s'auto répare ? Je crains que cela risque d'être long.

manque d'innovation : l'IA est incapable de faire preuve d'esprit critique et de générer de nouvelles idées ; elle ne peut que répéter des idées basées sur les données sur lesquelles elle a été formée. L'esprit critique et la résolution de problèmes sont des compétences de programmation importantes que l'IA ne peut pas reproduire ;
C'est le point le plus négatif de l'IA, à savoir qu'il est dans l'impossibilité de créer quoi que ce soit, à l'inverse de l'humain.
Inversement, sur ce qu'il sait, et en admettant que l'IA ne puisse pas commettre d'erreurs, il aura la capacité de faire mieux que l'humain.
Mais comment l'IA peut évoluer s'il en est totalement incapable ?
Le pire est que si l'humain n'est plus en capacité d'évoluer lui-même et se repose totalement sur l'IA pour le faire à sa place, c'est la mort de l'humanité.
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
8  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/07/2024 à 8:12
Citation Envoyé par Artemus24 Voir le message
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
Sans aller jusqu'à considérer l'IA comme une nouvelle divinité, le danger est effectivement de s'en remettre à l'IA dans des domaines tel que la recherche fondamentale, l'innovation, la créativité,...

On voit aujourd'hui les méfaits d'un système uniquement basé sur la rentabilité, par exemple, dans l'univers du cinéma. Il n'y a quasiment plus de nouveauté, de création pure.
Soit on décrit le quotidien (autant regarder le "journal" de BFM ) soit ce sont des suites de suites ou des préquelles de suites de remake !
On nous parle de nouvelles séries : Zorro

Je me souviens quand mon père m'avait emmener voir Star Wars en 77 au ciné ! On n'avait jamais vu ça. Pareil pour Alien dans les années 80. Aujourd'hui on en est où ? Ben, des séries Star Wars, avant de nouveaux films, et toujours Alien !
8  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 23/07/2024 à 8:11
En sortie d'études, en France, je me souviens qu'on nous tenait déjà un discours sur l'inutilité prochaine de nos métiers en France, voués à être intégralement remplacés par de la sous-traitance en Inde ou ailleurs.
L'histoire aura largement donné tort à mes chers professeurs, et aujourd'hui encore, on voudrait nous ressortir les mêmes bêtises, mais avec encore moins d'arguments je trouve.
L'IA n'est en effet pas du tout autonome, limité dans sa "connaissance" au code qui a servi à son entrainement et dont elle ne comprend rien mais fait juste ressortir des patterns.
Le seul vrai risque de l'IA avec nos métiers, c'est quand elle nous entraînera dans sa chute quand la bulle explosera..
7  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 24/09/2024 à 16:45
Il fume la même chose que Musk, celui-là ?
7  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 08/07/2024 à 10:01
Résumé en dessin des politiques écologiques mises en place par les états.
6  0 
Avatar de PhilippeGibault
Membre éprouvé https://www.developpez.com
Le 30/07/2024 à 17:32
Quand j'étais prof de Physique (dans une autre vie, j'en ai un exécrable souvenir), j'expliquais que la calculatrice est outil formidable. Mais qu'il ne dispense pas de savoir faire les calculs à la main.

En résumé, la calculatrice est un outil qui permet de gagner du temps, mais il ne dispense pas de savoir faire les calculs à la main.

C'est la même chose avec l'IA générative. Il génère peut-être le code, mais ça ne dispense pas d'avoir un esprit critique, et donc de fait des bases solides, notamment en architecture de code.

C'est aussi le cas avec des frameworks comme Hibernate. Celui-ci ne dispense pas d'avoir des notions solides en BDD, sinon, bonjour la catastrophe (notamment au niveau des performances).
6  0