Certains spécialistes en IA affirment que le phénomène appelé "effet IA" est l'un des problèmes qui ralentissent, ou empêchent, l'évolution de la technologie vers une intelligence artificielle générale (AGI). L'effet IA désigne un phénomène dans lequel une fois qu'une tâche ou une capacité est automatisée ou accomplie avec succès à l'aide de l'IA, elle n'est plus considérée comme faisant partie de la véritable IA. En d'autres termes, dès qu'une IA devient compétente pour une tâche spécifique, les gens ont tendance à ne plus la considérer comme une IA et à la percevoir comme une simple opération de routine ou régulière.
Ainsi, l'on pense que chaque succès de l'IA redéfinit la technologie. À cela s'ajoute l'absence de consensus sur la définition de l'intelligence, ce qui complique davantage la tâche pour les sociétés d'IA. Jusqu'ici, chaque entreprise définit l'AGI selon sa vision, bien que tous les acteurs de la course à l'AGI se rejoignent sur la plupart des points. Pour contourner ces problèmes, le créateur de ChatGPT, OpenAI, a défini sa propre échelle de suivi de l'évolution de ses grands modèles de langage (LLM). Il s'agit d'une échelle à cinq niveaux, allant des modèles conventuels actuels (niveau 1) à une AGI, notamment du point de vue d'OpenAI.
Le cadre de classification a été présenté aux employés lors d'une assemblée générale et devrait partager plus tard avec la communauté. OpenAI estime que son chatbot d'IA ChatGPT se situe au niveau 1, mais la startup assure qu'elle est proche du niveau 2 où l'on retrouve les systèmes appelés "raisonneurs". Elle définit un système de niveau 2 comme un système capable de résoudre des problèmes de base au niveau d'une personne titulaire d'un doctorat. Le niveau 3 fait référence à des systèmes capables de prendre des mesures pour le compte d'un utilisateur. Le niveau 4 concerne une IA capable de créer des innovations.🚀 Levels of AI by OpenAI 🚀
— HunterX.ai (@Hunter_Xai) July 12, 2024
1️⃣ Chatbots: AI with conversational language
2️⃣ Reasoners: Human-level problem solving
3️⃣ Agents: Systems that can take actions
4️⃣ Innovators: AI that can aid in invention
5️⃣ Organizations: AI that can do the work of an organization$ASI is… pic.twitter.com/zUJVydQMov
Le niveau 5, l'étape finale pour atteindre l'AGI, est une IA qui peut effectuer le travail d'organisations entières de personnes. OpenAI a défini l'AGI comme un système hautement autonome surpassant les humains dans la plupart des tâches avec une valeur économique. Sam Altman, PDG d'OpenAI, a précédemment déclaré qu'il pense que l'AGI pourrait être atteinte au cours de cette décennie. Ainsi, une échelle sur laquelle OpenAI pourrait se tester et tester ses concurrents pourrait aider à déterminer plus clairement le moment où l'AGI sera atteinte. Mais OpenAI n'est pas le premier à proposer un cadre de classification.
Dans un article publié en novembre 2023, des chercheurs de Google DeepMind ont proposé un cadre de cinq niveaux ascendants d'IA, comprenant des niveaux comme "expert" et "surhumain". Cette échelle ressemble à un système auquel l'industrie automobile fait souvent référence pour évaluer le degré d'automatisation des voitures autonomes. À l'époque, Demis Hassabis, le PDG de Google DeepMind, a également déclaré qu'il est possible d’atteindre une forme d’IA de niveau humain dans une décennie, ce qui donnerait aux machines un sens commun. Selon lui, cette IA serait un système capable de raisonnement causal.
Les chercheurs en IA débattent depuis longtemps de la manière de déterminer les critères permettant d'atteindre l'AGI. La structure unique d'OpenAI est centrée sur sa mission de réaliser l'AGI , et la façon dont OpenAI définit l'AGI est importante. L'entreprise a déclaré que si un projet aligné sur les valeurs et soucieux de la sécurité s'approche de l'AGI avant qu'OpenAI ne le fasse, elle s'engage à ne pas entrer en concurrence avec le projet et à tout laisser tomber pour l'aider. Cependant, la formulation de cet engagement dans la charte d'OpenAI est vague, laissant la place au jugement de l'entité à but lucratif de l'organisation.
L'AGI est toutefois encore loin : il faudra des milliards et des milliards de dollars de puissance de calcul pour atteindre l'AGI, si tant est qu'on y parvienne. Les calendriers des experts, y compris celui d'OpenAI, varient considérablement et de nombreux défis restent à relever, notamment en matière de sécurité. En mai, OpenAI a dissous son équipe de sécurité après le départ du chef du groupe, le cofondateur d'OpenAI Ilya Sutskever. Jan Leike, un chercheur clé d'OpenAI, a démissionné peu après, affirmant que "la culture et les processus de sécurité sont devenus secondaires par rapport aux produits brillants au sein d'OpenAI".
Bien qu'OpenAI ait nié que ce soit le cas, certains s'inquiètent de ce que cela signifie si l'entreprise parvient effectivement à l'AGI. OpenAI n'a pas fourni de détails sur la façon dont l'entreprise affecte les modèles à ces niveaux internes. Toutefois, selon un rapport de Bloomberg, les dirigeants de l'entreprise ont présenté lors de la réunion un projet de recherche qui utilise le modèle d'IA GPT-4 et estiment que ce projet met en évidence de nouvelles compétences qui font preuve d'un raisonnement semblable à celui des humains. Il y a peu d'informations sur cette échelle et l'on ignore si elle sera adoptée par le reste du secteur.
Cette échelle pourrait contribuer à donner une définition stricte des progrès, plutôt que de laisser place à l'interprétation. Par exemple, Mira Murati, directrice technique d'OpenAI, a déclaré dans une interview en juin que les modèles dans ses laboratoires ne sont pas beaucoup mieux que ce que le public a déjà. En revanche, Altman a déclaré à la fin de l'année dernière que l'entreprise avait repoussé le voile de l'ignorance, ce qui signifie que les modèles sont plus intelligents.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du cadre de classification proposé par OpenAI pour les systèmes d'IA ?
OpenAI va-t-il tenter d'imposer cette échelle à l'ensemble de l'industrie ? Quels en seraient les impacts ?
Voir aussi
Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA
Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes
« L'IA générative n'est qu'une phase. La prochaine phase sera l'IA interactive dans laquelle des machines interactives effectueront des tâches à votre place », affirme un cofondateur de DeepMind