Un pionnier de l'IA affirme que l'industrie est encore à des décennies de l'AGI
Les investisseurs et les entreprises spécialisées dans l'IA injectent actuellement des centaines de milliards de dollars dans la course à l'IA, et une grande partie de cette somme est consacrée au développement d'une technologie encore théorique : l'intelligence artificielle générale. OpenAI, le fabricant du chatbot d'IA ChatGPT, a fait de la création de l'AGI une priorité absolue. Ses rivaux tels que Google, Meta et Microsoft consacrent également leurs meilleurs chercheurs au même objectif. Mais le développement de l'AGI fait face à de nombreux défis et l'un des principaux défis concerne la définition même de la technologie.
En effet, la définition de l'AGI n'est pas la même pour tout le monde. Cet état de choses crée une certaine confusion quant à la distance qui sépare l'industrie de l'invention de cette technologie qui est censée changer le monde. Cela donne lieu à des prédictions audacieuses de la part de certains acteurs de la course à l'IA. À titre d'exemple, Elon Musk, PDG du constructeur automobile Tesla, s'attend à ce que l'IA surpasse l'intelligence humaine d'ici la fin de l'année 2025.Machine learning pioneer Andrew Ng says AGI is still "many decades away, maybe even longer" and companies that say it is only a year or two away are using non-standard definitions to lower the bar pic.twitter.com/zTERJM0tTr
— Tsarathustra (@tsarnick) September 1, 2024
Mais le chercheur en IA Andrew Ng affirme que ces prédictions relèvent plus du battage médiatique que de la réalité. Andrew Ng, 48 ans, est chercheur américain en IA et professeur associé au département de science informatique de l'université Stanford. Son travail concerne principalement l'apprentissage automatique et la robotique. Lors d'une récente interview avec Techsauce, Andrew Ng a déclaré que ces prédictions reposent sur des définitions biaisées de l'AGI.
Envoyé par Andrew Ng
L'un des critiques de son avis a écrit : « Andrew Ng dit qu'ils ont placé la barre bas pour l'AGI, mais personne n'a la définition exacte du terme en premier lieu. Je peux dire qu'il place la barre haut, et nous tournerons en rond. Ensuite, des effets cumulatifs équivalents peuvent affecter la société dès les prochaines générations d'IA. Et cela est plus important que le débat capricieux sur le moment où le monde se mettra d'accord sur ce qu'il faut appeler vraiment AGI ».
Certains acteurs ont adopté une échelle pour suivre leur évolution vers l'AGI
L'une des définitions courantes de l'AGI est celle qui décrit la technologie comme une IA avancée capable de raisonner comme les humains. Mais pour certains, c'est plus que cela. Ian Hogarth, coauteur du rapport annuel "State of AI", définit l'AGI comme une « IA semblable à Dieu ». Tom Everitt, chercheur sur la sécurité de l'AGI chez Google DeepMind, la décrit comme un système d'IA capable de résoudre des tâches d'une manière qui ne se limite pas à la façon dont ils ont été formés. Sam Altman, PDG d'OpenAI, a déclaré que ChatGPT aurait pu être considéré comme une AGI s'il était sorti 10 ans plus tôt.
« Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. Il estime que ce comportement peut être expliqué par deux choses : l'effet IA et l'absence de consensus sur la définition de l'intelligence. L'expression "effet IA" décrit un phénomène selon lequel une fois qu'une tâche ou une capacité est automatisée ou accomplie avec succès à l'aide de l'IA, elle n'est plus considérée comme faisant partie de la "véritable" IA.
Autrement dit, dès qu'un système d'IA devient compétent pour une tâche donnée, les gens ont tendance à ne plus le considérer comme une IA et à le percevoir comme une simple opération de routine ou régulière. Ainsi, l'on pense que chaque succès de l'IA la redéfinit. « Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée », a écrit un critique en soutien aux propos d'Altman.
Pour faire face à ce défi, OpenAI a élaboré une échelle de classification à 5 niveaux afin de suivre l'évolution de ses technologies d'IA vers l'AGI. Les niveaux vont des capacités actuelles de l'IA conversationnelle (niveau 1) à une IA capable d'effectuer des tâches organisationnelles (niveau 5). Le système de classification a été présenté aux employés lors d'une réunion à l'échelle de l'entreprise et sera aussi partagé avec les investisseurs et les parties externes.
Les dirigeants d'OpenAI ont informé le personnel que l'entreprise est convaincue d'en être au stade initial. En outre, la direction a ajouté que l'entreprise est très proche d'un système de niveau 2, composé des machines intelligentes appelées "raisonneurs". Altman a précédemment déclaré qu'il pense que l'AGI pourrait être atteinte au cours de cette décennie. Ce qui signifie qu'OpenAI s'attend à atteindre le niveau 5 de son échelle avant la fin de cette décennie.
OpenAI n'est pas le seul acteur de la course à l'IA à tenter de contourner le problème avec une échelle de classification. Dans un article publié en novembre 2023, des chercheurs de Google DeepMind ont proposé un cadre de cinq niveaux ascendants d'IA, comprenant des niveaux comme "expert" et "surhumain". Cette échelle ressemble à un système auquel l'industrie automobile fait souvent référence pour évaluer le degré d'automatisation des voitures autonomes.
Quelques prédictions de chercheurs en IA et de dirigeants sur l'avenir de l'IA
Demis Hassabis, PDG de Google DeepMind, a déclaré l'année dernière que l'industrie pourrait atteindre une forme d’IA de niveau humain dans une décennie, ce qui donnerait aux machines un sens commun. Selon lui, cette IA serait un système capable de raisonnement causal. En mars, le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans. Selon une enquête publiée par "Our World in Data", les prévisionnistes estiment qu'il y a une chance sur deux pour qu'une AGI soit conçue, testée et annoncée publiquement d'ici 2040, c'est-à-dire dans moins de 20 ans.
Translated, une société de traduction, a mis au point un indicateur, le Time to Edit (TTE), pour calculer le temps nécessaire aux rédacteurs humains professionnels pour corriger les traductions générées par l'IA par rapport aux traductions humaines. Cela pourrait aider à quantifier la vitesse à laquelle nous nous rapprochons de la singularité. Translated a calculé qu'il faut environ une seconde à un traducteur humain pour corriger chaque mot produit par un autre traducteur humain. En 2015, les rédacteurs professionnels mettaient environ 3,5 secondes par mot pour réviser une suggestion traduite par une machine.
À l'heure actuelle, ce délai a été ramené à 2 secondes. Si cette tendance se poursuit, Translated prévoit que sa technologie d'IA atteindra la qualité de la traduction humaine d'ici la fin de la décennie, voire plus tôt. D'autres enquêtes menées auprès d'experts en IA aboutissent à des conclusions similaires. La pertinence de l'indicateur élaboré par Translated est toutefois remise en cause par de nombreux critiques dans la communauté de l'IA.
Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, ne partage pas la prédiction audacieuse de Musk selon laquelle l'IA surpassera l'intelligence humaine dès l'année prochaine. Le chercheur en IA affirme qu'une AGI est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante.
Pour LeCun, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. « Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. Il affirme notamment que les modèles d'AI actuels ne sont pas plus intelligents qu'un chien.
Les enquêtes auprès des experts sont un élément d'information à prendre en compte lorsque nous réfléchissons à l'avenir de l'IA. Toutefois, il est important de ne pas surestimer les résultats de ces enquêtes. Selon certains rapports, les experts d'une technologie particulière ne sont pas nécessairement ceux qui sont à même de prédire l'avenir de cette technologie. Ce qui peut parfois donner lieu à un battage médiatique intense autour de cette technologie.
Source : Andrew Ng
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des propos d'Andrew Ng selon lesquels les prédictions sur l'AGI sont basées sur une définition douteuse de la technologie ?
Quelles sont vos prédictions sur l'avenir de l'IA ? L'AGI est-elle une technologie à la portée de l'industrie ? Pourquoi ?
Selon vous, pourquoi l'industrie ne parvient pas à trouver un consensus sur la notion d'intelligence artificielle générale ?
Voir aussi
« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind pour le développement responsable des systèmes d'IA
Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM, il propose une piste pour créer une IA de niveau humain
Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025