IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google DeepMind recrute un chercheur scientifique « post-AGI » afin d'étudier l'impact profond que cette technologie aura sur la société,
Sans apporter la preuve qu'il est sur le point de parvenir à une AGI

Le , par Mathis Lucas

34PARTAGES

5  0 
L'intelligence artificielle générale (AGI) est l'objectif ultime de la course à l'IA. Mais cette quête fait l'objet d'un battage médiatique intense qui voile les défis majeurs que l'industrie doit relever. Il n'existe pas une définition unique de ce qu'est exactement une AGI et des experts affirment qu'elle ne sera pas le résultat des grands modèles de langage actuels. Pourtant, Google DeepMind prédit l'arrivée d'une AGI d'ici à 2030 et tente de recruter un chercheur scientifique post-AGI afin d'étudier l'impact profond que cette technologie aura sur notre société. À l'heure actuelle, aucune entreprise n'a prouvé qu'elle est sur le point de parvenir à l'AGI.

Le secteur de l'IA n'est toujours pas tombé d'accord sur une définition unique de ce qu'est une intelligence artificielle générale (AGI). Pour certains, ce serait une IA capable de passer un test de QI, tandis que pour d'autres, il faut qu'elle puisse remplacer un humain dans n'importe quel métier. L'une des définitions les plus populaires dans la communauté décrit l'AGI comme une machine dotée d'une intelligence et de capacités semblables à celles de l'homme.

Début avril 2025, Google DeepMind a publié un document dans lequel il définit l'AGI comme « un système capable d'égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l'apprentissage de nouvelles compétences ».

Le document de Google DeepMind, coécrit par Shane Legg, cofondateur du laboratoire, prédit que l'AGI pourrait arriver d'ici à 2030 et qu'elle pourrait entraîner ce que les auteurs appellent des « dommages graves ». Le document ne définit pas concrètement ce terme, mais donne l'exemple alarmiste des « risques existentiels qui pourrait détruire définitivement l'humanité ». Il suscite des critiques, certains ayant rejeté ces prévisions jugées trop optimistes.

Google DeepMind semble se préparer à une ère de cohabitation avec l'AGI

En attendant, a publié une offre d'emploi pour recruter un chercheur scientifique pour l'ère post-AGI qui sera chargé d'étudier l'impact profond que cette technologie aura sur notre société. Cela suggère que l'entreprise se prépare à un monde post-AGI. Les questions clés comprennent la trajectoire de l'AGI vers une superintelligence artificielle (ASI), la conscience de la machine, l'impact de l'AGI sur les fondements de la société humaine. L'annonce indique :

«Nous recherchons un chercheur scientifique pour explorer l'impact profond de ce qui vient après l'AGI. Les principales responsabilités consistent à définir des questions de recherche essentielles dans ces domaines, à collaborer avec des équipes interfonctionnelles pour développer des solutions innovantes et à mener des expériences pour faire avancer notre mission ». Google DeepMind déclare rechercher des personnes qui s'épanouissent dans l'ambiguïté.


La superintelligence artificielle (artificial super intelligence) fait référence à une forme hypothétique d'IA qui surpasse l'humain le plus intelligent dans tous les domaines. Cette notion s'explique d'elle-même, mais les experts sont sceptiques quant à l'avènement d'un tel système. Les responsabilités du poste sont :

  • diriger des projets de recherche explorant l'influence de l'AGI sur des domaines tels que l'économie, le droit, la santé/le bien-être, l'AGI à l'ASI, la conscience de la machine et l'éducation ;
  • élaborer et mener des études approfondies pour analyser l'impact sociétal de l'AGI dans des domaines clés ;
  • participer à des efforts de collaboration avec des équipes interfonctionnelles, y compris des partenaires externes, pour faire avancer la recherche ;
  • approfondir des domaines spécifiques afin d'améliorer notre compréhension de l'impact de l'IAG et créer la carte des résultats potentiels ;
  • construire et affiner l'infrastructure de mesure et les cadres d'évaluation pour une évaluation systématique des effets sociétaux de l'IA.


Sam Altman, PDG d'OpenAI, Elon Musk, PDG de xAI, et d'autres acteurs de l'industrie de l'IA travaillent tous sur l'AGI et ont parlé de la probabilité que l'humanité parvienne à l'AGI, du moment où cela pourrait se produire et des conséquences possibles, mais le poste ouvert par Google DeepMind montre que les entreprises prennent maintenant des mesures concrètes pour la suite, ou du moins continuent à signaler qu'elles pensent que cela peut être réalisé.

Comme d'autres critiques l'ont déjà souligné, l'AGI et l'impact massif qu'elle pourrait théoriquement avoir sur la société constituent également une stratégie marketing utile pour les entreprises d'IA. Ce battage médiatique leur permet de vanter leur valeur sur la base de quelque chose qui pourrait ou non se produire à l'avenir, tout en détournant l'attention des problèmes réels et des dommages que leurs systèmes d'IA causent activement à l'heure actuelle.

OpenAI et sa définition controversée de l'AGI qui se base sur le profit

Les chercheurs d’OpenAI, de Google DeepMind ou d'Anthropic estiment que l'AGI est techniquement possible, et que nous pourrions y arriver dans une décennie à venir, ou plus tôt selon les prévisions les plus optimistes. D'après ces entreprises, l'intelligence humaine émerge du traitement de l'information dans le cerveau, donc il serait possible de le reproduire artificiellement avec assez de puissance de calcul, de données et de bons algorithmes.

Cependant, d'autres chercheurs pensent que l'AGI ne sera pas là avant des décennies. Ils estiment qu'il nous manque une compréhension profonde de la conscience, de l'intuition, du bon sens, etc. Selon eux, une vraie AGI ne pourra pas émerger sans avancées majeures en neurosciences, en psychologie cognitive, etc. Et même si on créait quelque chose de très intelligent, est-ce que ce serait une « intelligence générale » ou bien juste une illusion ?

Les plus sceptiques pensent que les machines n'atteindront jamais ce niveau. Le mois dernier, une enquête a révélé que la majorité des chercheurs en IA estiment que l'industrie technologique déverse des milliards dans une impasse. Environ 76 % d'entre eux estiment qu'il est « peu probable » ou « très peu probable » que l'augmentation de la puissance de calcul et des données des grands modèles de langage (LLM) actuels conduise à une AGI.

Les conclusions de l'enquête constituent un désaveu retentissant de la méthode longtemps privilégiée par l'industrie technologique pour obtenir des gains en matière d'IA. Mais comme souligné plus haut, le problème réside en partie dans le fait que l'AGI est un terme et un objectif vaguement définis.

Tulsee Doshi, directeur de la gestion des produits pour Gemini chez Google, a déclaré : « différentes personnes ont des définitions différentes de l'AGI, et donc selon la personne à qui l'on s'adresse, la proximité ou la distance qui nous sépare de l'AGI est un sujet de conversation différent ».

Selon un rapport de The Information, OpenAI et Microsoft définissent l'AGI comme « un système d'IA pouvant générer jusqu'à 100 milliards de dollars de bénéfices », ce qui semble totalement éloigné de toute référence scientifique. Le rapport cite un document de 2023 émanant des deux entreprises. Il suggère que l'AGI, telle que beaucoup l'imaginent, est un objectif irréaliste et révèle surtout qu'OpenAI est aujourd'hui plus intéressé par les profits.

Plus tôt cette année, Sam Altman a écrit qu'OpenAI est convaincue de savoir comment construire l'AGI « telle que nous l'avons traditionnellement comprise » et que...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 16/04/2025 à 19:03
Ça fait partie de leur génome de mettre la charrue avant les bœufs ?

Au passage, pendant que les mecs n'en ont apparemment pas grand chose à carrer des conséquences de leurs outils actuels, ils recrutent quelqu'un "qui sera chargé d'étudier l'impact profond que cette technologie (l'IAG) aura sur notre société" alors qu'ils ont aucune foutue idée de ce que pourrait être cette techno.
Ils recrutent un scientifique ou un romancier ?
0  0