IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ingénieur en IA d'OpenAI affirme avoir réalisé l'AGI : « Nous avons déjà réalisé l'AGI... ce que nous avons est "meilleur que la plupart des humains pour la plupart des tâches".»

Le , par Jade Emy

34PARTAGES

6  0 
Un ingénieur en IA d'OpenAI a déclaré que l'AGI a déjà été atteinte. Il déclare notamment que "Nous ne sommes pas parvenus à "faire mieux que n'importe quel humain pour n'importe quelle tâche", mais à "faire mieux que la plupart des humains pour la plupart des tâches."

L'AGI est considérée comme l'objectif final de la recherche sur l'IA, le Saint Graal pour les entreprises d'IA. Sam Altman, PDG d'OpenAI, a affirmé qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés. Il a expliqué que le but est de construire l'intelligence artificielle générale (AGI) et que la fin justifie les moyens. Il a également déclaré que GPT-4 est la technologie la plus stupide que le monde aura à utiliser. Ce qui laisse suggérer que GPT-5 ne ressemblera en rien aux modèles d'IA précédents d'OpenAI et devrait être une évolution majeure de l'IA générative.

L'AGI ou l'intelligence artificielle générale est une IA dite "forte" qui devrait être capable de penser au même titre que les humains et de s'attaquer n'importe quelle tâche. L'industrie s'attend à ce que l'AGI soit capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. Mais bien que l'IA se soit considérablement développée à ce jour, pour beaucoup, ses capacités restent extrêmement limitées et elle est encore loin d'atteindre l'AGI.

Récemment, un ingénieur en IA d'OpenAI a déclaré que l'AGI a déjà été atteinte. Voici ces propos:

À mon avis, nous avons déjà atteint l'AGI et c'est encore plus clair avec O1. Nous ne sommes pas parvenus à « faire mieux que n'importe quel humain pour n'importe quelle tâche », mais à « faire mieux que la plupart des humains pour la plupart des tâches ». Certains disent que les LLM ne savent que suivre une recette. Tout d'abord, personne ne peut vraiment expliquer ce qu'un réseau neuronal profond de mille milliards de paramètres peut apprendre. Mais même si vous croyez cela, la méthode scientifique dans son ensemble peut être résumée par une recette : observer, émettre des hypothèses et vérifier. Les bons scientifiques peuvent produire de meilleures hypothèses sur la base de leur intuition, mais cette intuition elle-même a été construite par de nombreux essais et erreurs. Il n'y a rien qui ne puisse être appris avec des exemples.
Cette déclaration semble en accord aux précédentes annonces de Sam Altman. Il avait récemment déclaré : "Je pense que nous atteindrons l'AGI plus tôt que ne le pensent la plupart des gens dans le monde et que cela aura beaucoup moins d'importance. Et une grande partie des préoccupations en matière de sécurité que nous et d'autres avons exprimées ne se posent pas au moment de l'AGI. L'AGI peut être construite, le monde continue à peu près de la même manière, les choses se développent plus rapidement, mais il y a ensuite une longue suite entre ce que nous appelons l'AGI et ce que nous appelons la superintelligence."

Ces propos du PDG d'OpenAI admettent l'arrivée imminente de l'AGI, peut-être dès 2025, mais ils donnent également l'impression que la définition de l'AGI par OpenAI est désormais moins grandiose qu'elle ne l'était auparavant. Sam Altman avait même déclaré : "Je m'attends à ce que la perturbation économique prenne un peu plus de temps que les gens ne le pensent parce qu'il y a beaucoup d'inertie dans la société. Ainsi, au cours des deux premières années, il n'y aura peut-être pas beaucoup de changements. Ensuite, il se peut que beaucoup de choses changent."

Pour les observateurs de l'écosystème de l'IA, ces déclarations viennent s'ajouter aux battages médiatiques déjà énormes sur l'AGI. Un critique avait déclaré en 2023 : "L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas." Dana Blankenhorn, journaliste technologique, avait affirmé que l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas.

Son analyse suggère que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché. Son point de vue fait toutefois l'objet de controverses.


Et vous ?

Pensez-vous que ces déclarations de l'ingénieur d'OpenAI sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'intelligence générale artificielle (AGI) dans 3 ans, d'après James Betker, ingénieur chez OpenAI, serait un agent incarné généralement intelligent

Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir, « Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu »

Le chercheur en IA Max Tegmark estime qu'il faut mettre un terme aux progrès de l'IA et empêcher la création des AGI, en veillant à ce que l'IA ne devienne qu'un outil et non une superintelligence

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 11/12/2024 à 17:33
Triste comme ces personnes peuvent fumer de la moquette !
Ils sont donc arrivé à faire une AI Générale !
Alors plus d'hallucinations, de mensonges, de biais ! Wahoo !!!
Cette AIG est capable d'évaluer la pertinence de ce qu'elle dit avec les sources ? De tester la robustesse des données de sa base d'intelligence ? D'en demander de supplémentaires car elle ne peut répondre a la question posée ? ...
Ah ! Non... Crottes !!!

Les IA des modèles actuels sont des perroquets scolastiques qui proposent le plus probable et normalement (malheureusement) incapables de produire une idée neuve par rapport à sa base d' apprentissage.
La connaissance encyclopédique n'est pas de l'intelligence, c'est juste bluffant.
Si cette iag fait de l'inférence, quelles sont les domaines mathématiques qu'elle aurait déjà épuisé ? Les trucs sympas qu'elle a démontré avec plus de finesse que l'humain ?
Altman sera mort avant que l'humanité le voit. Il est jeune Altman...
4  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 13/12/2024 à 17:12
Citation Envoyé par jpouly Voir le message
Sans déconner, l'IA est intéressante dans des domaines très pointu, comme le médicale.
Et encore...
L'IA dans le médical, pour faire court, ce sont des milliards de milliards de dollars investis pour permettre à une poignée de gens très riches de vivre un peu plus longtemps.
Alors que des seulement quelques milliards suffiraient à résoudre des problèmes de santé qui impactent des milliards de personnes.
3  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 09/12/2024 à 14:34
Je ne suis pas certain qu'en imitant l'humain, une IA pourra faire mieux. A la limite, elle effectuera (ou reprendra) la meilleure solution qu'un humain produira, en admettant qu'elle sera à sa disposition, mais pas au delà de ce qu'un humain pourrait faire. La question est "comment faire mieux qu'un humain" ? Je pense qu'il faut penser autrement qu'un humain, et peut-être découvrir un autre mode de pensée, que l'on n'a pas encore envisagé, pour produire un résultat qui soit bien meilleur que celui d'un humain.

Je veux dire que le champs d'expérimentation de l'IA est l'internet et de tout ce que l'humain y dépose. L'IA ne sait pas raisonner et c'est cela le problème. Il ne peut que trouver dans cette base de données qu'est l'internet, la réponse qu'il cherche. L'autre question est "comment apprendre à une IA à raisonner par elle même " ? Dans ce cas, l'IA devient incontrôlable, voire même impossible à vérifier ce qu'elle va affirmer. Et du coup, l'humain n'a plus aucun contrôle sur l'IA.
2  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 10/12/2024 à 9:34
OpenAI
Notre mission est de veiller à ce que l'intelligence artificielle générale - des systèmes d'intelligence artificielle généralement plus intelligents que les humains - profite à l'ensemble de l'humanité.

Si l'IAG est créée avec succès, cette technologie pourrait nous aider à élever l'humanité en augmentant l'abondance, en donnant un coup de fouet à l'économie mondiale et en contribuant à la découverte de nouvelles connaissances scientifiques qui repoussent les limites du possible.

L'IAG a le potentiel de donner à chacun d'incroyables nouvelles capacités ; nous pouvons imaginer un monde où chacun d'entre nous aurait accès à de l'aide pour presque toutes les tâches cognitives, ce qui multiplierait considérablement la force de l'ingéniosité et de la créativité humaines.

D'un autre côté, l'AGI s'accompagnerait également d'un risque sérieux de mauvaise utilisation, d'accidents graves et de perturbations sociétales. Étant donné que l'AGI présente des avantages considérables, nous ne pensons pas qu'il soit possible ou souhaitable pour la société d'arrêter définitivement son développement ; au contraire, la société et les développeurs de l'AGI doivent trouver le moyen de bien faire les choses.
Bullshit ... Totalement incompatible dans un environnement économique hyperspéculatif, rivé (voire riveté) sur la rentabilité et la maximisation des profits, avec une politique de privatisation globale (impliquant une société de type carcéral basée sur le contrôle et la surveillance via un Grid supervisé par une AGI avec des capacités militaires autonomes renforcées) et de marchandisation complète du vivant. Cela dit c'est Open hein.
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 16/12/2024 à 21:22
Bon j'étais carrément loin des vrais chiffres.
C'est 10 levées de fonds pour un total de 17.9 milliards de dollars. Donc 11 fois moins que ce que j'annonçais.
Sur les 10 tours, il y en a 2 où ils n'ont pas divulgué les montants levé.
L'entreprise est cotée à 157 milliards de dollars.

https://tracxn.com/d/companies/opena...estors#funding
2  0 
Avatar de Fabiani
Membre confirmé https://www.developpez.com
Le 09/12/2024 à 22:11
Artemus24 > "Je ne suis pas certain qu'en imitant l'humain, une IA pourra faire mieux."
Pour l'instant l'IA n'arrive pas encore à imiter l'esprit humain, loin de là, si elle y arrivait cela serait déjà une grande avancée, en attendant un raisonnement supèrieur à l'humain.
Par exemple si on lui permettait l'accés aux données connues (publications + toutes les données connues en science) jusqu'en 1905 par exemple, elle ne serait pas capable de
formuler une chose proche de la Relativité Générale, car il faut faire preuve d'intuitions, d'interpréter des concepts abstraits, avoir une approche plus générale d'un problème concret
(courbure des rayons lumineux) venant de l'astronomie, de la géométrie, de la physique, des mathémathiques etc...et non juste de données brutes.
Comme vous le signalez, si l'IA avait cette capacité à raisonner d'elle-même en mixant intuition, abstraction, questions méthaphysqiues et phylosophiques, ne deviendrait-elle pas
incontrôlable ? Je rejoins Hawking sur sa crainte (l'IA pourrait mettre fin à l’humanité...) du développement d’une intelligence artificielle complète . Mais à l'heure actuelle
elle est encore trés trés loin de l'esprit humain le plus brillant !
2  1 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 10/12/2024 à 9:23
Salut Fabiani.

Un autre problème est celle de la confrontation des idées. Un IA seule ne peut rien confronter et savoir si ce qu'elle expose est viable ou pas. Dans son raisonnement, cela le sera. Mais comment démontrer à juste titre qu'elle se trompe ? Pas facile de se mettre à la portée de son intelligence pour un simple humain.

Puis il y a le passage à la réalité, disons à l'expérimentation. Comment une IA peut expérimenter quoi que ce soit puisqu'elle n'est qu'un cerveau sans corps ? Admettons qu'elle puisse avoir des petits mains que sont des robots sous son contrôle. Autant expérimenter les allumettes dans une poudrière. Ce serait trop dangereux pour l'humanité de laisser une IA prendre le contrôle de ses propres expériences. Comment peut-elle progresser si elle doit continuellement se reposer sur l'humanité, sachant qu'il y a nécessairement un problème de communication ? Le vrai problème de l'évolution de l'IA est l'expérimentation à l'instar de ce que l'homme a part lui-même expérimenté pour progresser. Sur ce point, il serait fou de lui donner le libre accès à cette réalité car nous ne serions pas capable de savoir ce que l'IA en ferait.
2  1 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 10/12/2024 à 11:57
Artemus24: C'est je crois l'intention d'Elon Musk avec ses robots Optimus et plus généralement l'idée derrière les modèles multimodaux d'OpenAI, de Meta et consorts.
Cela dit l'IA générative ne permet pas actuellement l'apprentissage en continu (et l'apprentissage exige des temps de calcul astronomiques).
C'est à mon avis la seule véritable barrière, car on peut présumer que pour tout le reste des améliorations successives permettront de surmonter les différentes difficultés.

Et parier sur la survenue d'un nouveau type d'IA dépassant les limites des transformeurs me semble hasardeux, même si OpenAI prétends depuis des mois le contraire.
1  0 
Avatar de mclane1
Membre régulier https://www.developpez.com
Le 12/12/2024 à 19:54
Bonjour

Jouez aux échecs contre un ordinateur. Il est imbattable. Et sans IA. L'ordinateur est capable de calculer tous les coups et de les enregistrer en bdd. Pas besoin, d'IA. Maintenant, jouez aux échecs contre chatgpt. Vous serez pris d'une crise de fou rire. Impossible qu'il se souvienne des coups qu'il a déjà joué, c'est vraiment hilarant.

Chatgpt s'est bon pour ceux qui savent super bien ce qu'ils veulent. Spoilers alerte, personne ne sait décrire ce qu'il veut. C'est pour ça que les français sont bon en informatique, parce qu'il remette en question la description, posent des questions et ne font pas bêtement ce qu'on leur demande (contrairement à certains off-shore où à l'IA).

Pour les grands chefs qui ne comprennent pas tout à l'informatique ni à la gestion de projet, l'IA c'est du pain béni, au même titre que la délocalisation en Inde ou en Chine... Et puis les projets prennent du retard, ne sont jamais fini ne fonctionne pas où alors des français repassent dessus. Et puis quand ce qu'ils penseront avoir demandé ne sera pas du tout le résultat généré par l'IA, vers qui vont ils se tourner ? Des équipes qui coûteront bien plus cher que les développeurs habituels.

Allumez vos neurones, ouvrez les yeux. C'est pas du tout prêt.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 12/12/2024 à 20:30
Sauf que AlphaZero était construit avec une IA (apprentissage par renforcement), peut-être spécialisée, mais personne ne lui a dit qu’une dame était supérieure à une tour… ce qui a permis des stratégies probablement inattendues des concepteur. J’ai vu une partie commentée menée par AlphaZero. Impressionnant : une multitude de sacrifices (mais il est fou ce programme) mais qui mène à un meilleur contrôle du terrain… et à la victoire.

Les algorithmes classiques sont construits à partir d’heuristiques imaginées par les concepteurs et de pondération issues d’essais et erreur. Il y a aussi la recherche de plusieurs coups d’avance (algorithme mini max, élagage alpha beta). Il y a beaucoup trop de coups possibles aux échecs pour mettre en base de données sauf les premiers coup (ouvertures). Si tu essayes de placer 16 pièces sur 64 cases, tu a déjà 64^16 =7,923×10²⁸ possibilités, or aux échecs tu commence à 32 pièces !

Et pire, AlphaGo, toujours à base d’intelligence artificielle, s’est attaqué au go, jeux difficile à programmer sur ordinateur qui avait moins de succès avec des algorithmes plus classiques.
1  0