
sans apporter la preuve qu'il est sur le point de parvenir à une AGI
L'intelligence artificielle générale (AGI) est l'objectif ultime de la course à l'IA. Mais cette quête fait l'objet d'un battage médiatique intense qui voile les défis majeurs que l'industrie doit relever. Il n'existe pas une définition unique de ce qu'est exactement une AGI et des experts affirment qu'elle ne sera pas le résultat des grands modèles de langage actuels. Pourtant, Google DeepMind prédit l'arrivée d'une AGI d'ici à 2030 et tente de recruter un chercheur scientifique post-AGI afin d'étudier l'impact profond que cette technologie aura sur notre société. À l'heure actuelle, aucune entreprise n'a prouvé qu'elle est sur le point de parvenir à l'AGI.
Le secteur de l'IA n'est toujours pas tombé d'accord sur une définition unique de ce qu'est une intelligence artificielle générale (AGI). Pour certains, ce serait une IA capable de passer un test de QI, tandis que pour d'autres, il faut qu'elle puisse remplacer un humain dans n'importe quel métier. L'une des définitions les plus populaires dans la communauté décrit l'AGI comme une machine dotée d'une intelligence et de capacités semblables à celles de l'homme.
Début avril 2025, Google DeepMind a publié un document dans lequel il définit l'AGI comme « un système capable d'égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l'apprentissage de nouvelles compétences ».
Le document de Google DeepMind, coécrit par Shane Legg, cofondateur du laboratoire, prédit que l'AGI pourrait arriver d'ici à 2030 et qu'elle pourrait entraîner ce que les auteurs appellent des « dommages graves ». Le document ne définit pas concrètement ce terme, mais donne l'exemple alarmiste des « risques existentiels qui pourrait détruire définitivement l'humanité ». Il suscite des critiques, certains ayant rejeté ces prévisions jugées trop optimistes.
Google DeepMind semble se préparer à une ère de cohabitation avec l'AGI
En attendant, a publié une offre d'emploi pour recruter un chercheur scientifique pour l'ère post-AGI qui sera chargé d'étudier l'impact profond que cette technologie aura sur notre société. Cela suggère que l'entreprise se prépare à un monde post-AGI. Les questions clés comprennent la trajectoire de l'AGI vers une superintelligence artificielle (ASI), la conscience de la machine, l'impact de l'AGI sur les fondements de la société humaine. L'annonce indique :
«Nous recherchons un chercheur scientifique pour explorer l'impact profond de ce qui vient après l'AGI. Les principales responsabilités consistent à définir des questions de recherche essentielles dans ces domaines, à collaborer avec des équipes interfonctionnelles pour développer des solutions innovantes et à mener des expériences pour faire avancer notre mission ». Google DeepMind déclare rechercher des personnes qui s'épanouissent dans l'ambiguïté.
La superintelligence artificielle (artificial super intelligence) fait référence à une forme hypothétique d'IA qui surpasse l'humain le plus intelligent dans tous les domaines. Cette notion s'explique d'elle-même, mais les experts sont sceptiques quant à l'avènement d'un tel système. Les responsabilités du poste sont :
- diriger des projets de recherche explorant l'influence de l'AGI sur des domaines tels que l'économie, le droit, la santé/le bien-être, l'AGI à l'ASI, la conscience de la machine et l'éducation ;
- élaborer et mener des études approfondies pour analyser l'impact sociétal de l'AGI dans des domaines clés ;
- participer à des efforts de collaboration avec des équipes interfonctionnelles, y compris des partenaires externes, pour faire avancer la recherche ;
- approfondir des domaines spécifiques afin d'améliorer notre compréhension de l'impact de l'IAG et créer la carte des résultats potentiels ;
- construire et affiner l'infrastructure de mesure et les cadres d'évaluation pour une évaluation systématique des effets sociétaux de l'IA.
Sam Altman, PDG d'OpenAI, Elon Musk, PDG de xAI, et d'autres acteurs de l'industrie de l'IA travaillent tous sur l'AGI et ont parlé de la probabilité que l'humanité parvienne à l'AGI, du moment où cela pourrait se produire et des conséquences possibles, mais le poste ouvert par Google DeepMind montre que les entreprises prennent maintenant des mesures concrètes pour la suite, ou du moins continuent à signaler qu'elles pensent que cela peut être réalisé.
Comme d'autres critiques l'ont déjà souligné, l'AGI et l'impact massif qu'elle pourrait théoriquement avoir sur la société constituent également une stratégie marketing utile pour les entreprises d'IA. Ce battage médiatique leur permet de vanter leur valeur sur la base de quelque chose qui pourrait ou non se produire à l'avenir, tout en détournant l'attention des problèmes réels et des dommages que leurs systèmes d'IA causent activement à l'heure actuelle.
OpenAI et sa définition controversée de l'AGI qui se base sur le profit
Les chercheurs d’OpenAI, de Google DeepMind ou d'Anthropic estiment que l'AGI est techniquement possible, et que nous pourrions y arriver dans une décennie à venir, ou plus tôt selon les prévisions les plus optimistes. D'après ces entreprises, l'intelligence humaine émerge du traitement de l'information dans le cerveau, donc il serait possible de le reproduire artificiellement avec assez de puissance de calcul, de données et de bons algorithmes.
Cependant, d'autres chercheurs pensent que l'AGI ne sera pas là avant des décennies. Ils estiment qu'il nous manque une compréhension profonde de la conscience, de l'intuition, du bon sens, etc. Selon eux, une vraie AGI ne pourra pas émerger sans avancées majeures en neurosciences, en psychologie cognitive, etc. Et même si on créait quelque chose de très intelligent, est-ce que ce serait une « intelligence générale » ou bien juste une illusion ?
Les plus sceptiques pensent que les machines n'atteindront jamais ce niveau. Le mois dernier, une enquête a révélé que la majorité des chercheurs en IA estiment que l'industrie technologique déverse des milliards dans une impasse. Environ 76 % d'entre eux estiment qu'il est « peu probable » ou « très peu probable » que l'augmentation de la puissance de calcul et des données des grands modèles de langage (LLM) actuels conduise à une AGI.
Les conclusions de l'enquête constituent un désaveu retentissant de la méthode longtemps privilégiée par l'industrie technologique pour obtenir des gains en matière d'IA. Mais comme souligné plus haut, le problème réside en partie dans le fait que l'AGI est un terme et un objectif vaguement définis.
Tulsee Doshi, directeur de la gestion des produits pour Gemini chez Google, a déclaré : « différentes personnes ont des définitions différentes de l'AGI, et donc selon la personne à qui l'on s'adresse, la proximité ou la distance qui nous sépare de l'AGI est un sujet de conversation différent ».
Selon un rapport de The Information, OpenAI et Microsoft définissent l'AGI comme « un système d'IA pouvant générer jusqu'à 100 milliards de dollars de bénéfices », ce qui semble totalement éloigné de toute référence scientifique. Le rapport cite un document de 2023 émanant des deux entreprises. Il suggère que l'AGI, telle que beaucoup l'imaginent, est un objectif irréaliste et révèle surtout qu'OpenAI est aujourd'hui plus intéressé par les profits.
Plus tôt cette année, Sam Altman a écrit qu'OpenAI est convaincue de savoir comment construire l'AGI « telle que nous l'avons traditionnellement comprise » et que la société pense qu'en 2025, nous verrons les premiers agents d'IA « rejoindre la main-d'œuvre ». Le PDG de Microsoft, Satya Nadella, a par la suite minimisé ce type de définition de l'AGI. Des documents suggèrent aussi qu'OpenAI a revu à la baisse les attentes à l'égard de l'IA.
Une AGI d'ici la fin de la décennie ? De nombreux experts restent sceptiques
L'AGI est un sujet quelque peu controversé dans le domaine de l'IA, les critiques suggérant qu'il ne s'agit que d'une chimère. « L'AGI est un mensonge. L'intelligence artificielle générale n'existe pas », a déclaré Dana Blankenhorn, journaliste technologique. Il estime que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie.
Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché. L'avènement des modèles d'IA performants à bas coût, comme DeepSeek-R1, a remis en cause l'approche très coûteuse des Big Tech américains.
L'année dernière, Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, a déclaré que l'AGI est inévitable. Toutefois, il a ajouté qu'elle n'arrivera pas de sitôt et qu'elle ne sera pas uniquement l'œuvre des grands modèles de langage actuels. Selon lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.
Google DeepMind a déclaré que son document est simplement un « point de départ pour des conversations vitales ». Si l'équipe a raison sur le fait que l'AGI transformera le monde dans cinq ans, ces conversations doivent avoir lieu rapidement. Si ce n'est pas le cas, beaucoup de gens auront l'air un peu ridicules.
Source : l'offre d'emploi de Google DeepMind
Et vous ?




Voir aussi



Vous avez lu gratuitement 550 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.