IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Selon Sam Altman, PDG d'OpenAI, nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI)
Mais ni GPT-4 ni le prochain grand modèle atteindraient le seuil de l'AGI

Le , par Jade Emy

9PARTAGES

5  0 
Selon Sam Altman, nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI), et ce qui importe est le rythme des progrès année après année.

La création d'une intelligence artificielle générale (AGI) est l'un des principaux objectifs de la recherche en IA et d'entreprises telles qu'OpenAI. L'intelligence artificielle générale (AGI) est un type d'intelligence artificielle (IA) capable de réaliser des performances équivalentes ou supérieures à celles des humains dans un large éventail de tâches cognitives, contrairement à l'IA étroite, conçue pour des tâches spécifiques.

Le calendrier de réalisation de l'AGI fait l'objet d'un débat permanent entre les chercheurs et les experts. En 2023, certains affirment qu'elle sera possible dans quelques années ou décennies, d'autres maintiennent qu'il faudra un siècle ou plus, et une minorité pense qu'elle ne sera jamais atteinte. Il y a un débat sur la définition exacte de l'AGI, et sur la question de savoir si les grands modèles de langage (LLM) modernes tels que GPT-4 sont des formes précoces et incomplètes de l'AGI.

Selon Sam Altman, "nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI)." Sam Altman est un entrepreneur et investisseur américain surtout connu comme PDG d'OpenAI depuis 2019. Altman est considéré comme l'une des figures de proue du boom de l'IA.

Ma conception naïve, lorsque nous avons commencé, était que nous arriverions à un moment où nous n'aurions pas l'AGI, puis que nous l'aurions, et que ce serait une véritable discontinuité. Et je pense toujours qu'il y a une certaine chance de discontinuité réelle. Mais dans l'ensemble, je pense que cela ressemblera davantage à une courbe exponentielle continue où ce qui importe est le rythme des progrès année après année.

Vous et moi ne serons probablement pas d'accord sur le mois ou même l'année où nous nous dirons : "Ok, maintenant c'est l'AGI". Nous pouvons trouver d'autres tests avec lesquels nous serons d'accord, mais même cela est plus difficile qu'il n'y paraît.

GPT-4 n'a certainement pas dépassé un seuil que presque tout le monde qualifierait d'AGI et je ne m'attends pas à ce que notre prochain grand modèle le soit non plus. Mais je peux imaginer que nous ne sommes qu'à une ou deux idées, ou à un petit nombre d'idées, et à une échelle un peu plus grande de quelque chose où nous nous dirons : "C'est maintenant un peu différent"
Et vous ?

Pensez-vous qu'il soit crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons et que les craintes autour de l'AGI sont exagérées

L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint», selon des chercheurs

Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 22/07/2024 à 16:33
Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ?
La question devrait-être : Devrait-on encore penser par nous même à l'ère de l'IA ?
Bon, déjà qu'une bonne partie ne font que reprendre la pensée de pseudo journalistes (qui sont plus des épandeurs d'idées pré-machées)
10  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 24/07/2024 à 9:34
Citation Envoyé par calvaire Voir le message
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter

De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.

Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.

Si vous voyez ou je veux en venir. Le loup et le troupeau.
9  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 27/05/2024 à 20:08
dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde
8  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 22/07/2024 à 16:53
le PDG de Nvidia, Jensen Huang, a déclaré que, même à ce stade précoce de la révolution de l'IA générative, la programmation n'est plus une compétence vitale.
Cela revient à dire que l'on sera dépendant de l'IA pour faire n'importe quoi. Et si l'IA tombe en panne, devra-t-on attendre qu'il s'auto répare ? Je crains que cela risque d'être long.

manque d'innovation : l'IA est incapable de faire preuve d'esprit critique et de générer de nouvelles idées ; elle ne peut que répéter des idées basées sur les données sur lesquelles elle a été formée. L'esprit critique et la résolution de problèmes sont des compétences de programmation importantes que l'IA ne peut pas reproduire ;
C'est le point le plus négatif de l'IA, à savoir qu'il est dans l'impossibilité de créer quoi que ce soit, à l'inverse de l'humain.
Inversement, sur ce qu'il sait, et en admettant que l'IA ne puisse pas commettre d'erreurs, il aura la capacité de faire mieux que l'humain.
Mais comment l'IA peut évoluer s'il en est totalement incapable ?
Le pire est que si l'humain n'est plus en capacité d'évoluer lui-même et se repose totalement sur l'IA pour le faire à sa place, c'est la mort de l'humanité.
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
7  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/07/2024 à 8:12
Citation Envoyé par Artemus24 Voir le message
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
Sans aller jusqu'à considérer l'IA comme une nouvelle divinité, le danger est effectivement de s'en remettre à l'IA dans des domaines tel que la recherche fondamentale, l'innovation, la créativité,...

On voit aujourd'hui les méfaits d'un système uniquement basé sur la rentabilité, par exemple, dans l'univers du cinéma. Il n'y a quasiment plus de nouveauté, de création pure.
Soit on décrit le quotidien (autant regarder le "journal" de BFM ) soit ce sont des suites de suites ou des préquelles de suites de remake !
On nous parle de nouvelles séries : Zorro

Je me souviens quand mon père m'avait emmener voir Star Wars en 77 au ciné ! On n'avait jamais vu ça. Pareil pour Alien dans les années 80. Aujourd'hui on en est où ? Ben, des séries Star Wars, avant de nouveaux films, et toujours Alien !
7  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 08/07/2024 à 10:01
Résumé en dessin des politiques écologiques mises en place par les états.
6  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 23/07/2024 à 8:11
En sortie d'études, en France, je me souviens qu'on nous tenait déjà un discours sur l'inutilité prochaine de nos métiers en France, voués à être intégralement remplacés par de la sous-traitance en Inde ou ailleurs.
L'histoire aura largement donné tort à mes chers professeurs, et aujourd'hui encore, on voudrait nous ressortir les mêmes bêtises, mais avec encore moins d'arguments je trouve.
L'IA n'est en effet pas du tout autonome, limité dans sa "connaissance" au code qui a servi à son entrainement et dont elle ne comprend rien mais fait juste ressortir des patterns.
Le seul vrai risque de l'IA avec nos métiers, c'est quand elle nous entraînera dans sa chute quand la bulle explosera..
6  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 27/05/2024 à 22:32
IA de merde pas forcément, elle fait ce pour quoi elle a été conçue. Mais l'utilisateur, ici BP, peut en abuser. Et vu le discours tenu, il semble qu'il soit en bonne voie de le faire (l'abus). Donc oui, s'il pousse trop loin il devra réembaucher par la suite. On ne devient pas bon dans ce qu'on fait en lisant juste ce que font les autres, même les meilleurs. La pratique reste indispensable. S'il se contente de faire valider le code aux humains, même s'il garde les meilleurs, ils vont naturellement perdre en qualité (et en motivation pour d'autres raisons). Ce qu'il gagne là il le perdra par ailleurs. Et selon comment le process évolue, il peut y avoir une perte de cohérence qui rendra le code d'autant plus difficile à reprendre quand il faudra y remettre de l'humain dedans.

Maintenant, si ce qu'il dit est vrai et se passe bien, c'est que le code de BP est vraiment du code basique et inintéressant au possible. Auquel cas merci d'épargner aux dévs ce genre d'expérience.
5  0 
Avatar de pebaroiller
Membre à l'essai https://www.developpez.com
Le 28/05/2024 à 9:22
Pourquoi pas, mais pour avoir testé / utlisé copilot & co, le gain n'est pas si énorme, et surtout , on ne peut pas faire confiance à 100% à l'IA. le code généré peut sembler être bon, mais il est souvent "mal pensé", "pas optimisé", voir même peut générer des bugs avec le reste du code existant.
Après, on verra d'ici quelques années si ils arrivent à se passer de nous ou si on contraire, ils auront besoin de personne ultra-qualifiées pour débugger tout ce qui aura été "codé automatiquement" pendant plusieurs années!
5  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 06/07/2024 à 10:47
Quand une civilisation est en crise, c'est l'heure des prophètes, des gourous et de tous les illuminés!

Il va des futurologues comme des prophéties de Nostradamus ou des experts de la bourse, ils ne prévoient jamais rien à l'avance. Ce n'est qu'une fois que les choses se sont réalisées que l'on vient nous dire "on vous l'avait dit".

Quel futurologue a annoncé internet 30 ans avant son développement? Personne!
5  0