Sam Altman, PDG d'OpenAI, estime que ChatGPT contient les prémices d'une intelligence générale artificielle (artificial general intelligence - AGI). Il est persuadé que beaucoup de personnes auraient considéré ChatGPT comme une AGI si l'outil d'IA leur avait été présenté dix ans auparavant. ChatGPT serait victime de ce que l'on appelle "effet IA", ce qui pousse les gens à le considérer comme un simple agent conversationnel. Il ajoute aussi que les gens ont du mal à considérer ChatGPT comme une AGI en raison de l'absence d'un consensus sur la définition de l'intelligence. Pour lui, lorsque cela arrivera, ChatGPT répondra d'une manière d'une autre à cette définition.« Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. L'entrepreneur regrette le fait que les gens banalisent le potentiel de sa technologie en le réduisant à un simple agent conversationnel. Il est convaincu que si l'on avait montré cette même technologie aux gens dix ans plutôt, ces derniers auraient été stupéfaits et auraient déclaré sans hésiter qu'il s'agit d'une AGI. Certains partagent l'avis d'Altman et prennent pour exemple la frénésie que ChatGPT a suscitée dès sa publication. « Les gens pensaient que c'était la dernière étape avant une AGI. Après la prise en main, ils ont changé d'avis », a écrit un critique.
Altman estime que ce comportement peut être expliqué par deux choses : l'effet IA et l'absence de consensus sur la définition de l'intelligence. Dans le domaine de l'IA, l'expression "effet IA" décrit un phénomène selon lequel une fois qu'une tâche ou une capacité est automatisée ou accomplie avec succès à l'aide de l'IA, elle n'est plus considérée comme faisant partie de la "véritable" IA. En d'autres termes, dès qu'un système d'IA devient compétent pour une tâche spécifique, les gens ont tendance à ne plus le considérer comme de l'IA et à le percevoir comme une simple opération de routine ou régulière. Ainsi, l'on pense que chaque succès de l'IA la redéfinit.
Selon la définition la plus populaire, l'AGI est une forme d'intelligence artificielle dans laquelle une machine peut apprendre et penser comme un humain. Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et une conscience tout court, afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâches. Selon certains experts en IA, il est peu probable que les gens se rendent compte qu'ils interagissent avec une AGI. D'autres estiment que nous serons en présence d'une AGI lorsque la machine aura une cognition de niveau humain. En réalité, la notion même de l'AGI fait l'objet de polémiques.
« Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée. Qu'est-ce que nous devrions collectivement reconnaître comme étant une AGI, un comportement ou une sensibilité de niveau humain ? Ou bien des connaissances générales sur un large éventail de sujets ? Je dirais que la plus grande mise en garde concernant l'AGI est de savoir si elle peut apprendre et transférer des connaissances par elle-même, ce qui semble être quelque chose que nous pouvons évaluer sans changer ce à quoi elle ressemble en fonction des progrès technologiques », a écrit un critique.
Cet effet est perceptible tout au long de l'histoire du développement de l'IA. Par exemple, lorsque le programme de jeu d'échecs Deep Blue a vaincu le grand maître des échecs Garry Kasparov en 1997, cette victoire a été saluée comme une réalisation importante de l'IA. Cependant, après cette victoire, les programmes d'IA jouant aux échecs sont désormais communément considérés comme des algorithmes conventionnels plutôt que comme une IA révolutionnaire. L'effet IA est dû au fait que la communauté (experts, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes.
Certains experts en IA ont fini par résumé l'effet IA en ces termes : « l'IA est tout ce qui n'a pas encore été fait ». L'effet IA montre à quel point il est difficile de définir l'intelligence et comment le terme est utilisé différemment selon les contextes, comme le comportement ou la cognition. Bien que le PDG d'OpenAI ait fait la remarque et qu'il aurait probablement préféré que les gens acceptent que ChatGPT est une AGI ou est tout au moins quelque chose qui s'en rapproche, il ne considère pas l'effet IA comme un problème. « Je pense que c'est une bonne chose que les règles du jeu changent constamment. Cela nous pousse à travailler plus dur », a-t-il déclaré.
Il a ajouté : « la technologie [ChatGPT] approche toutefois un stade qui est au moins assez proche de la compréhension de l'AGI par OpenAI pour qu'une définition soit adoptée au cours de la prochaine décennie, si ce n'est plus tôt ». Altman laisse entendre qu'OpenAI...[/chatgpt]
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

