IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI développe une échelle à 5 niveaux pour suivre la progression de ses systèmes d'IA vers une intelligence artificielle générale
Et affirme que sa technologie s'approche du niveau 2

Le , par Mathis Lucas

8PARTAGES

5  0 
OpenAI a élaboré un cadre de classification à 5 niveaux pour suivre les progrès de ses logiciels d'IA. Les niveaux vont des capacités actuelles de l'IA conversationnelle (niveau 1) à une IA capable d'effectuer des tâches organisationnelles (niveau 5). Le système de classification a été présenté aux employés lors d'une réunion à l'échelle de l'entreprise et sera aussi partagé avec les investisseurs et les parties externes. Les dirigeants d'OpenAI ont informé le personnel que l'entreprise est convaincue d'en être au stade initial. En outre, la direction a ajouté qu'elle est très proche d'un système de niveau 2, composé des machines intelligentes appelées "raisonneurs".

Certains spécialistes en IA affirment que le phénomène appelé "effet IA" est l'un des problèmes qui ralentissent, ou empêchent, l'évolution de la technologie vers une intelligence artificielle générale (AGI). L'effet IA désigne un phénomène dans lequel une fois qu'une tâche ou une capacité est automatisée ou accomplie avec succès à l'aide de l'IA, elle n'est plus considérée comme faisant partie de la véritable IA. En d'autres termes, dès qu'une IA devient compétente pour une tâche spécifique, les gens ont tendance à ne plus la considérer comme une IA et à la percevoir comme une simple opération de routine ou régulière.

Ainsi, l'on pense que chaque succès de l'IA redéfinit la technologie. À cela s'ajoute l'absence de consensus sur la définition de l'intelligence, ce qui complique davantage la tâche pour les sociétés d'IA. Jusqu'ici, chaque entreprise définit l'AGI selon sa vision, bien que tous les acteurs de la course à l'AGI se rejoignent sur la plupart des points. Pour contourner ces problèmes, le créateur de ChatGPT, OpenAI, a défini sa propre échelle de suivi de l'évolution de ses grands modèles de langage (LLM). Il s'agit d'une échelle à cinq niveaux, allant des modèles conventuels actuels (niveau 1) à une AGI, notamment du point de vue d'OpenAI.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">&#128640; Levels of AI by OpenAI &#128640;<br><br>1&#65039;&#8419; Chatbots: AI with conversational language <br>2&#65039;&#8419; Reasoners: Human-level problem solving <br>3&#65039;&#8419; Agents: Systems that can take actions <br>4&#65039;&#8419; Innovators: AI that can aid in invention <br>5&#65039;&#8419; Organizations: AI that can do the work of an organization<a href="https://twitter.com/search?q=%24ASI&amp;src=ctag&amp;ref_src=twsrc%5Etfw">$ASI</a> is… <a href="https://t.co/zUJVydQMov">pic.twitter.com/zUJVydQMov</a></p>&mdash; HunterX.ai (@Hunter_Xai) <a href="https://twitter.com/Hunter_Xai/status/1811624075594191145?ref_src=twsrc%5Etfw">July 12, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Le cadre de classification a été présenté aux employés lors d'une assemblée générale et devrait partager plus tard avec la communauté. OpenAI estime que son chatbot d'IA ChatGPT se situe au niveau 1, mais la startup assure qu'elle est proche du niveau 2 où l'on retrouve les systèmes appelés "raisonneurs". Elle définit un système de niveau 2 comme un système capable de résoudre des problèmes de base au niveau d'une personne titulaire d'un doctorat. Le niveau 3 fait référence à des systèmes capables de prendre des mesures pour le compte d'un utilisateur. Le niveau 4 concerne une IA capable de créer des innovations.

Le niveau 5, l'étape finale pour atteindre l'AGI, est une IA qui peut effectuer le travail d'organisations entières de personnes. OpenAI a défini l'AGI comme un système hautement autonome surpassant les humains dans la plupart des tâches avec une valeur économique. Sam Altman, PDG d'OpenAI, a précédemment déclaré qu'il pense que l'AGI pourrait être atteinte au cours de cette décennie. Ainsi, une échelle sur laquelle OpenAI pourrait se tester et tester ses concurrents pourrait aider à déterminer plus clairement le moment où l'AGI sera atteinte. Mais OpenAI n'est pas le premier à proposer un cadre de classification.

Dans un article publié en novembre 2023, des chercheurs de Google DeepMind ont proposé un cadre de cinq niveaux ascendants d'IA, comprenant des niveaux comme "expert" et "surhumain". Cette échelle ressemble à un système auquel l'industrie automobile fait souvent référence pour évaluer le degré d'automatisation des voitures autonomes. À l'époque, Demis Hassabis, le PDG de Google DeepMind, a également déclaré qu'il est possible d’atteindre une forme d’IA de niveau humain dans une décennie, ce qui donnerait aux machines un sens commun. Selon lui, cette IA serait un système capable de raisonnement causal.

Les chercheurs en IA débattent depuis longtemps de la manière de déterminer les critères permettant d'atteindre l'AGI. La structure unique d'OpenAI est centrée sur sa mission de réaliser l'AGI , et la façon dont OpenAI définit l'AGI est importante. L'entreprise a déclaré que si un projet aligné sur les valeurs et soucieux de la sécurité s'approche de l'AGI avant qu'OpenAI ne le fasse, elle s'engage à ne pas entrer en concurrence avec le projet et à tout laisser tomber pour l'aider. Cependant, la formulation de cet engagement dans la charte d'OpenAI est vague, laissant la place au jugement de l'entité à but lucratif de l'organisation.

L'AGI est toutefois encore loin : il faudra des milliards et des milliards de dollars de puissance de calcul pour atteindre l'AGI, si tant est qu'on y parvienne. Les calendriers des experts, y compris celui d'OpenAI, varient considérablement et de nombreux défis restent à relever, notamment en matière de sécurité. En mai, OpenAI a dissous son équipe de sécurité après le départ du chef du groupe, le cofondateur d'OpenAI Ilya Sutskever. Jan Leike, un chercheur clé d'OpenAI, a démissionné peu après, affirmant que "la culture et les processus de sécurité sont devenus secondaires par rapport aux produits brillants au sein d'OpenAI".

Bien qu'OpenAI ait nié que ce soit le cas, certains s'inquiètent de ce que cela signifie si l'entreprise parvient effectivement à l'AGI. OpenAI n'a pas fourni de détails sur la façon dont l'entreprise affecte les modèles à ces niveaux internes. Toutefois, selon un rapport de Bloomberg, les dirigeants de l'entreprise ont présenté lors de la réunion un projet de recherche qui utilise le modèle d'IA GPT-4 et estiment que ce projet met en évidence de nouvelles compétences qui font preuve d'un raisonnement semblable à celui des humains. Il y a peu d'informations sur cette échelle et l'on ignore si elle sera adoptée par le reste du secteur.

Cette échelle pourrait contribuer à donner une définition stricte des progrès, plutôt que de laisser place à l'interprétation. Par exemple, Mira Murati, directrice technique d'OpenAI, a déclaré dans une interview en juin que les modèles dans ses laboratoires ne sont pas beaucoup mieux que ce que le public a déjà. En revanche, Altman a déclaré à la fin de l'année dernière que l'entreprise avait repoussé le voile de l'ignorance, ce qui signifie que les modèles sont plus intelligents.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du cadre de classification proposé par OpenAI pour les systèmes d'IA ?
OpenAI va-t-il tenter d'imposer cette échelle à l'ensemble de l'industrie ? Quels en seraient les impacts ?

Voir aussi

Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA

Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

« L'IA générative n'est qu'une phase. La prochaine phase sera l'IA interactive dans laquelle des machines interactives effectueront des tâches à votre place », affirme un cofondateur de DeepMind

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 22/07/2024 à 16:33
Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ?
La question devrait-être : Devrait-on encore penser par nous même à l'ère de l'IA ?
Bon, déjà qu'une bonne partie ne font que reprendre la pensée de pseudo journalistes (qui sont plus des épandeurs d'idées pré-machées)
13  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/07/2024 à 9:34
Citation Envoyé par calvaire Voir le message
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter

De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.

Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.

Si vous voyez ou je veux en venir. Le loup et le troupeau.
10  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 22/07/2024 à 16:53
le PDG de Nvidia, Jensen Huang, a déclaré que, même à ce stade précoce de la révolution de l'IA générative, la programmation n'est plus une compétence vitale.
Cela revient à dire que l'on sera dépendant de l'IA pour faire n'importe quoi. Et si l'IA tombe en panne, devra-t-on attendre qu'il s'auto répare ? Je crains que cela risque d'être long.

manque d'innovation : l'IA est incapable de faire preuve d'esprit critique et de générer de nouvelles idées ; elle ne peut que répéter des idées basées sur les données sur lesquelles elle a été formée. L'esprit critique et la résolution de problèmes sont des compétences de programmation importantes que l'IA ne peut pas reproduire ;
C'est le point le plus négatif de l'IA, à savoir qu'il est dans l'impossibilité de créer quoi que ce soit, à l'inverse de l'humain.
Inversement, sur ce qu'il sait, et en admettant que l'IA ne puisse pas commettre d'erreurs, il aura la capacité de faire mieux que l'humain.
Mais comment l'IA peut évoluer s'il en est totalement incapable ?
Le pire est que si l'humain n'est plus en capacité d'évoluer lui-même et se repose totalement sur l'IA pour le faire à sa place, c'est la mort de l'humanité.
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
8  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/07/2024 à 8:12
Citation Envoyé par Artemus24 Voir le message
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
Sans aller jusqu'à considérer l'IA comme une nouvelle divinité, le danger est effectivement de s'en remettre à l'IA dans des domaines tel que la recherche fondamentale, l'innovation, la créativité,...

On voit aujourd'hui les méfaits d'un système uniquement basé sur la rentabilité, par exemple, dans l'univers du cinéma. Il n'y a quasiment plus de nouveauté, de création pure.
Soit on décrit le quotidien (autant regarder le "journal" de BFM ) soit ce sont des suites de suites ou des préquelles de suites de remake !
On nous parle de nouvelles séries : Zorro

Je me souviens quand mon père m'avait emmener voir Star Wars en 77 au ciné ! On n'avait jamais vu ça. Pareil pour Alien dans les années 80. Aujourd'hui on en est où ? Ben, des séries Star Wars, avant de nouveaux films, et toujours Alien !
8  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 23/07/2024 à 8:11
En sortie d'études, en France, je me souviens qu'on nous tenait déjà un discours sur l'inutilité prochaine de nos métiers en France, voués à être intégralement remplacés par de la sous-traitance en Inde ou ailleurs.
L'histoire aura largement donné tort à mes chers professeurs, et aujourd'hui encore, on voudrait nous ressortir les mêmes bêtises, mais avec encore moins d'arguments je trouve.
L'IA n'est en effet pas du tout autonome, limité dans sa "connaissance" au code qui a servi à son entrainement et dont elle ne comprend rien mais fait juste ressortir des patterns.
Le seul vrai risque de l'IA avec nos métiers, c'est quand elle nous entraînera dans sa chute quand la bulle explosera..
7  0 
Avatar de PhilippeGibault
Membre éprouvé https://www.developpez.com
Le 30/07/2024 à 17:32
Quand j'étais prof de Physique (dans une autre vie, j'en ai un exécrable souvenir), j'expliquais que la calculatrice est outil formidable. Mais qu'il ne dispense pas de savoir faire les calculs à la main.

En résumé, la calculatrice est un outil qui permet de gagner du temps, mais il ne dispense pas de savoir faire les calculs à la main.

C'est la même chose avec l'IA générative. Il génère peut-être le code, mais ça ne dispense pas d'avoir un esprit critique, et donc de fait des bases solides, notamment en architecture de code.

C'est aussi le cas avec des frameworks comme Hibernate. Celui-ci ne dispense pas d'avoir des notions solides en BDD, sinon, bonjour la catastrophe (notamment au niveau des performances).
6  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 17/07/2024 à 15:25
Citation Envoyé par Stéphane le calme Voir le message
Dans un scénario socialiste où les besoins humains primeraient sur le profit, certains travailleurs pourraient se retrouver sans emploi. Pour compenser ces travailleurs déplacés, Robinson a proposé un scénario intéressant : « Que diriez-vous de ceci : une fois que le travail pour lequel vous avez été formé est automatisé, vous recevez une pension d'automatisation et vous pouvez vous détendre pour le reste de votre vie. Tout le monde priera pour que son emploi soit le prochain sur la liste à disparaître ».
Les gens qui pensent que ce scénario pourrait réellement se produire m'exaspèrent.

Oui des gens vont perdre leur travail.
Oui des gens n'arriveront pas à retrouver du travail.
Non, ils ne vont pas toucher un gros RSA à vie.
5  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 23/07/2024 à 15:44
Citation Envoyé par Mathis Lucas Voir le message
[B]Les nouvelles directives de TeachAI et de la Computer Science Teachers Association soulignent que l'enseignement de l'informatique est plus important que jamais à l'ère de l'IA.
Les nouvelles directives de TeachAgro soulignent que l'enseignement de l'agriculture est plus importante que jamais.
Les nouvelles directives de TeachPhilo soulignent que l'enseignement de la philosophie est plus importante que jamais.
et les nouvelles directives de TeachHumanity soulignent que l'enseignement de l'éthique est plus importante que jamais.

No shit bro.
Pensez-vous que les enfants doivent encore apprendre à coder à l'ère de l'IA ?
Pas plus pas moins qu'avant.
Le codage enrichi intellectuellement les enfants rien qu'en leur faisant explorer des méthodes de réflexions différentes.
L'IA remplacera-t-elle les programmeurs ? Les limites actuelles de l'IA vont-elles s'estomper avec le temps ?
Oui à court terme puis on reparlera de dette technologique.
Et on ira chialer dans les jupons de ceux qui comprennent de que l'IA a plus ou moins bien fait.
Une personne sans connaissance de base en programmation peut-elle générer du code fiable et sécurisé avec les outils d'IA ?
J'en ai plein autour de moi.
Le résultat est pertinent quelques semaines au mieux puis les bugs commencent à apparaitre et là c'est la fin des haricots. Personne ne comprend ce qui a été fait.
On reprend tout depuis le début.
Cette personne peut-elle envisager de faire carrière dans le développement de logiciels en s'appuyant uniquement sur l'IA ?
Les plus brillants oui, je connais quelques personnes qui brillent par leur incompétence mais qui arrivent à évoluer suffisamment vite pour que ça ne se constate techniquement qu'une fois qu'ils sont devenus managers.
Ils te venteront alors leurs exploits - qui ont tous été abandonnés depuis, ce qu'ils n'ont évidemment pas vérifié.
Citation Envoyé par Jon Shannow Voir le message
La question devrait-être : Devrait-on encore penser par nous même à l'ère de l'IA ?
Un fan de bataille a dit "je penses donc je suis" sur facebook mais plus personne ne joue à la bataille.
Cette idée est clairement obsolète en BIG 2024.
4  0 
Avatar de ciola
Membre du Club https://www.developpez.com
Le 24/07/2024 à 8:01
Les enfants devraient-ils apprendre à calculer à l'heure des calculatrices?
Les enfants devraient-ils apprendre à lire à l'heure des applications text to speech?
Etc.
5  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 24/07/2024 à 18:52
Citation Envoyé par Artemus24 Voir le message
La mise en place de cette réduction de la natilité
Bon courage pour convaincre les femmes des pays comme Niger, Burundi, Mali, Somalie, Ouganda, Burlina Faso, de faire moins d'enfants.
Elles ont tendance à en faire 6.

Ou alors peut-être un truc "on vous paie pour vous stériliser".
Pour la blague :
Ou leur donner de la nourriture ou des vaccins qui rendent stérile.
4  1