L'IAG (intelligence artificielle générale) est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.
Sam Altman a accepté de participer au Hawking Fellowship Award 2023 au nom de l'équipe derrière OpenAI avec les étudiants de Cambridge. À cette occasion, des étudiants ont eu l'opportunité d'échanger avec lui pendant une séance d'une heure environ. Altman a alors affirmé que l’IAG était l’un des plus grands défis de l’humanité, mais aussi l’une des plus grandes opportunités. Il a expliqué que l’IAG pourrait résoudre des problèmes majeurs comme le changement climatique, la pauvreté, la santé ou l’éducation, mais qu’elle pourrait aussi représenter un risque existentiel si elle n’était pas contrôlée.
En janvier, Sam Altman a affirmé que l'IAG pourrait être développée dans un « avenir raisonnablement proche ». Puis, en juin, l'estimation de trois ans a été sortie du chapeau d'un ingénieur d'OpenAI. Une affirmation qui contraste avec les prédictions plus conservatrices du PDG de Google DeepMind, qui anticipe une décennie, et de Shane Legg, cofondateur de DeepMind, qui évalue à 50 % la probabilité d'atteindre l'IAG d'ici 2028.
De multiples départs dans la direction d'OpenAI qui entraînent des interrogations sur l'imminence de cette réalisation
Au cours de la semaine dernière, OpenAI a connu un important bouleversement de sa direction, trois personnalités clés ayant annoncé des changements majeurs. Greg Brockman, président et cofondateur de l'entreprise, prend un congé sabbatique prolongé jusqu'à la fin de l'année, tandis qu'un autre cofondateur, , a quitté définitivement l'entreprise pour sa rivale Anthropic.
Peter Deng, un chef de produit qui a rejoint OpenAI l'année dernière après avoir travaillé chez Meta Platforms, Uber et Airtable, a également quitté l'entreprise, bien que nous ne sachions pas encore où il se dirige. En mai, le cofondateur d'OpenAI, Ilya Sutskever, a quitté l'entreprise pour fonder une startup rivale, et l'éminent ingénieur logiciel Andrej Karpathy a quitté l'entreprise en février, lançant récemment une entreprise éducative.
Schulman s'est montré optimiste quant à l'avenir d'OpenAI dans sa note d'adieu sur X. « Je suis convaincu qu'OpenAI et les équipes dont je faisais partie continueront à prospérer sans moi », a-t-il écrit. « Je suis incroyablement reconnaissant d'avoir eu l'occasion de participer à une partie aussi importante de l'histoire et je suis fier de ce que nous avons accompli ensemble. Je continuerai à vous encourager tous, même si je travaille ailleurs ».
Dans un post sur X, Brockman a écrit : « Je prends un congé sabbatique jusqu'à la fin de l'année. C'est la première fois que je me détends depuis que j'ai cofondé OpenAI il y a 9 ans. La mission est loin d'être achevée ; nous avons encore une IAG sûr à construire ».I shared the following note with my OpenAI colleagues today:
— John Schulman (@johnschulman2) August 6, 2024
I've made the difficult decision to leave OpenAI. This choice stems from my desire to deepen my focus on AI alignment, and to start a new chapter of my career where I can return to hands-on technical work. I've decided…
Ces mouvements ont conduit certains à se demander si OpenAI est proche de la percée d'une sorte d'intelligence artificielle raisonnante dont on parle depuis longtemps, si les employés les plus en vue quittent le navire (ou prennent de longues pauses, dans le cas de Brockman) si facilement. Comme l'a déclaré le développeur d'IA Benjamin De Kraker sur X, « si OpenAI est sur le point de parvenir à l'IAG, pourquoi les personnes les plus en vue continuent-elles de partir ? »I’m taking a sabbatical through end of year. First time to relax since co-founding OpenAI 9 years ago. The mission is far from complete; we still have a safe AGI to build.
— Greg Brockman (@gdb) August 6, 2024
Si OpenAI est sur le point de développer une technologie d'IA révolutionnaire, pourquoi ces experts de l'IA ne restent pas ?If OpenAI is right on the verge of AGI, why do prominent people keep leaving?
— Benjamin De Kraker 🏴*☠️ (@BenjaminDEKR) August 6, 2024
Et d'ajouter que si OpenAI est sur le point de développer une technologie d'IA révolutionnaire, ces vétérans de l'IA très en vue ne voudraient-ils pas rester dans le coin et participer à ce moment historique ? « C'est une vraie question », écrit-il. « Si vous étiez presque sûr que l'entreprise dont vous êtes un élément clé - et dans laquelle vous avez des parts - est sur le point de mettre au point l'IA d'ici un ou deux ans... pourquoi quitteriez-vous le navire ? »
L'IAG fait référence à un système d'IA hypothétique qui pourrait égaler l'intelligence humaine dans un large éventail de tâches sans formation spécialisée. C'est l'objectif ultime d'OpenAI :
« Notre mission est de veiller à ce que l'intelligence artificielle générale, c'est-à-dire les systèmes d'intelligence artificielle qui sont généralement plus intelligents que les humains, profite à l'ensemble de l'humanité. Si l'IAG est créée avec succès, cette technologie pourrait nous aider à élever l'humanité en augmentant l'abondance, en donnant un coup de fouet à l'économie mondiale et en contribuant à la découverte de nouvelles connaissances scientifiques qui repoussent les limites du possible.
« L'IAG a le potentiel de donner à chacun d'incroyables nouvelles capacités ; nous pouvons imaginer un monde où chacun d'entre nous aurait accès à de l'aide pour presque toutes les tâches cognitives, ce qui multiplierait considérablement la force de l'ingéniosité et de la créativité humaines.
« D'un autre côté, l'IAG s'accompagnerait également d'un risque sérieux de mauvaise utilisation, d'accidents graves et de perturbations sociétales. Étant donné l'importance des avantages de l'IAG, nous ne pensons pas qu'il soit possible ou souhaitable pour la société d'arrêter définitivement son développement ; au contraire, la société et les développeurs de l'IAG doivent trouver le moyen de bien faire les choses ».
L'IAG est également un concept qui a suscité des inquiétudes quant aux risques existentiels potentiels pour l'humanité et au remplacement des travailleurs du savoir. Toutefois, le terme reste assez vague, et la communauté de l'IA débat considérablement de ce qui constitue véritablement l'IAG ou de la mesure dans laquelle nous sommes sur le point d'y parvenir.
L'émergence de la « prochaine grande avancée » en matière d'IA a été considérée par des critiques tels qu'Ed Zitron comme une étape nécessaire pour justifier les investissements massifs dans des modèles d'IA qui ne sont pas encore rentables. L'industrie retient son souffle en espérant qu'OpenAI, ou un concurrent, fasse une percée secrète qui justifiera les coûts massifs associés à la formation et au déploiement des LLM.
Mais d'autres critiques de l'IA, comme Gary Marcus, ont émis l'hypothèse que les grandes entreprises d'IA ont atteint un plateau de capacité des grands modèles de langage (LLM) centré sur les modèles de niveau GPT-4, étant donné qu'aucune entreprise d'IA n'a encore fait un grand pas au-delà du LLM révolutionnaire qu'OpenAI a publié en mars 2023. Le directeur technique de Microsoft, Kevin Scott, a réfuté ces affirmations en déclarant que les « lois d'échelle » des LLM (qui suggèrent que les capacités des LLM augmentent proportionnellement à la puissance de calcul qui leur est attribuée) continueront à apporter des améliorations au fil du temps et qu'il faudra faire preuve de plus de patience pendant la formation de la prochaine génération (par exemple, GPT-5).
Atteindre l'IAG est-il possible ?
Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à des scénarios inconnus ou complexes. Mais cela pourrait changer avec GPT5.
Certains experts affirment que pour atteindre l'IAG, il faudra une compréhension approfondie des interactions complexes entre la cognition, la perception et l'action, ainsi que la capacité d'intégrer de multiples sources de connaissances et d'expériences.
Malgré les défis et les incertitudes entourant la signification de l'IAG, de nombreux chercheurs et organisations poursuivent activement cet objectif, motivés par le potentiel d'importants avantages scientifiques, économiques et sociétaux.
Pour mémoire, il existe différents types d’IA selon leur niveau de complexité et de généralité. Voici les principales différences entre l’IA générale, l’IA étroite et la superintelligence artificielle :
- L’IA générale (IAG ou IA forte) est un type d’IA qui serait capable de comprendre et d’interagir avec n’importe quelle tâche ou domaine, qu’il s’agisse de langage naturel, d’image, de musique, de logique ou d’autres domaines. L’IA générale serait à la hauteur des capacités humaines dans tous les aspects cognitifs et non seulement dans une seule tâche spécifique. L’IA générale n’existe pas encore dans le monde réel, mais c’est le but ultime de beaucoup de chercheurs en IA.
- L’IA étroite (ANI ou IA faible) est un type d’IA qui existe actuellement et qui est spécialisée dans une seule tâche ou domaine particulier. Par exemple, l’IA étroite peut reconnaître les visages, les voix ou les objets sur une image; jouer aux échecs; traduire des textes; conduire une voiture; ou rechercher des informations sur Internet. L’IA étroite est très performante pour accomplir sa tâche spécifique, mais elle ne peut pas s’étendre à d’autres domaines ou situations.
- La superintelligence artificielle (ou ASI) est un type hypothétique d’IA qui serait capable de dépasser les capacités humaines dans tous les domaines et aspects cognitifs. La superintelligence artificielle serait plus intelligente que les meilleurs humains dans toutes les disciplines scientifiques, techniques, artistiques et sociales. La superintelligence artificielle pourrait aussi avoir une conscience et une sensibilité propres à elle-même. La superintelligence artificielle n’existe pas encore dans le monde réel, mais c’est une possibilité théorique qui suscite beaucoup d’intérêt et aussi beaucoup de craintes.
Sources : OpenAI, Ed Zitron, Gary Marcus
Et vous ?
Quel pourrait être l’impact de ces départs sur la direction de l’entreprise et sur la réalisation de l’IAG ?
Comment définiriez-vous l’intelligence artificielle générale ? Partagez votre compréhension de l’IAG et discutez de la proximité de sa réalisation.
Quelles sont les implications de l’IAG pour la société et la vie quotidienne ? Réfléchissez aux avantages et aux risques potentiels de l’IAG, notamment en matière d’emploi, d’éthique et de sécurité.
Quelles sont les limites actuelles des modèles de langage basés sur des lois d’échelle ? Explorez les critiques concernant les progrès récents dans l’IA et discutez des défis restants.
Comment pouvons-nous garantir que l’IAG soit développée de manière bénéfique pour l’humanité ? Evoquez les mesures nécessaires pour éviter les dérives potentielles de l’IAG.