IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta crée un nouveau laboratoire d'IA pour développer la « superintelligence » et propose des rémunérations à 9 chiffres aux talents pour rejoindre son équipe,
Bien que le concept reste nébuleux et mal défini

Le , par Mathis Lucas

14PARTAGES

3  0 
Meta crée un nouveau laboratoire d'IA pour développer la « superintelligence » et propose des rémunérations à 9 chiffres aux talents pour rejoindre son équipe
bien que le concept reste nébuleux et mal défini

Meta crée un nouveau laboratoire afin de développer la « superintelligence ». Il a recruté Alexandr Wang, 28 ans, fondateur et PDG de la startup Scale AI, pour rejoindre le nouveau laboratoire. Meta envisagerait de former une équipe d'une cinquantaine de personnes et aurait proposé des rémunérations à sept ou neuf chiffres à des dizaines de chercheurs issus de rivaux comme OpenAI et Google, certains ayant déjà accepté de rejoindre l'entreprise. L'initiative fait suite aux allégations de falsification des performances de son dernier modèle d'IA. Elle intervient également dans un contexte où l'équipe d'IA actuelle de Meta est confrontée à des difficultés.

Meta réorganiserait sa stratégie en matière d'IA. Et le nouveau laboratoire est né de cette restructuration. Il représente l'effort de l'entreprise pour rester compétitif dans la course à l'IA de plus en plus compétitive, où les participants continuent d'injecter des milliards dans la recherche et l'acquisition de talents. Selon un rapport du New York Times, Meta tente de débaucher les talents de ses concurrents en leur proposant des rémunérations à neuf chiffres.

Meta a recruté Alexandr Wang, PDG de Scale AI, pour rejoindre le nouveau laboratoire. Meta serait également en pourparlers pour investir des milliards dans la startup dans le cadre d'un accord qui amènerait d'autres employés de Scale AI à rejoindre le géant mondial des plateformes de médias sociaux.

Il est essentiel pour Meta, Google, Amazon et Microsoft de rester dans la course, car cette technologie est susceptible de représenter l'avenir du secteur. Ainsi, au cours de ces dernières années, ces Big Tech ont injecté plusieurs dizaines de milliards de dollars dans des startups et dans leurs propres laboratoires d'IA. Microsoft a investi plus de 13 milliards de dollars dans OpenAI, tandis qu'Amazon a injecté 8 milliards de dollars dans la startup d'IA Anthropic.


Ils ont également dépensé des milliards pour embaucher des employés de startups très en vue et pour acquérir des licences sur leurs technologies. L'année dernière, Google a accepté de payer 3 milliards de dollars pour obtenir une licence sur la technologie et embaucher des talents et des cadres de Character.AI, une startup qui crée des chatbots pour les conversations personnelles. (Character.AI fait actuellement l'objet de nombreuses actions en justice.)

Le nouveau laboratoire se concentrera essentiellement sur la création de la superintelligence, une machine hypothétique qui dépasserait les capacités cognitives humaines. Il s'agit d'une étape au-delà de l'intelligence générale artificielle (AGI) qui vise à égaler la capacité d'un humain intelligent à apprendre de nouvelles tâches sans formation spécialisée intensive. Mais tout comme l'AGI, la superintelligence reste un terme nébuleux dans la filière de l'IA.

La superintelligence : un objectif qui relève de la spéculation selon certains

On ne sait pas si une machine pourra un jour dépasser globalement l'intelligence humaine ni ce que cela signifierait exactement. Les obstacles sont immenses : techniques, théoriques, éthiques. Étant donné que les scientifiques comprennent encore mal les mécanismes de l'intelligence humaine et que celle-ci résiste à une quantification simple sans définition unique, l'identification de la superintelligence, lorsqu'elle arrivera, présentera des défis considérables.

En effet, les ordinateurs surpassent les humains dans certaines formes de traitement de l'information, comme les calculs, mais cette supériorité étroite ne peut être qualifiée de superintelligence selon la plupart des définitions. La recherche suppose que nous la reconnaîtrons en la voyant, malgré le flou conceptuel.

Margaret Mitchell, chercheuse en IA, a déclaré qu'il n'y aura probablement jamais d'accord sur les comparaisons entre l'intelligence humaine et l'intelligence de la machine. Mais elle a prédit que « les hommes en position de pouvoir et d'influence, en particulier ceux qui investissent dans l'IA, déclareront que l'IA est plus intelligente que l'homme », quelle que soit la réalité. Cela reflète la situation actuelle de l'industrie, avec des déclarations audacieuses sur l'IA.

En avril 2024, Elon Musk, fondateur de xAI, a déclaré : « l'IA serait plus intelligente que l'humain le plus intelligent d'ici l'année prochaine, d'ici deux ans ». En septembre 2024, Sam Altman, PDG d'OpenAI, a prédit que l'industrie pourrait développer une superintelligence dans quelques milliers de jours. En janvier 2025, Sam Altman a ajouté : « nous sommes désormais certains de savoir comment construire l'IA telle que nous la concevons traditionnellement ».

Avec la création de son nouveau laboratoire, Meta s'ajoute à une liste de plus en plus longue de géants de la technologie qui font des déclarations audacieuses sur le développement d'une l'IA avancée. Mais ces prédictions ont été critiquées par des experts et des chercheurs en IA comme Margaret Mitchell. Cette dernière a déclaré que « l'intelligence n'est pas une valeur unique pour laquelle on peut faire des comparaisons directes et leur donner un sens ».

L'équipe d'IA actuelle de Meta semble confrontée à de nombreuses difficultés

L'initiative de Meta en matière de superintelligence intervient dans un contexte de difficultés de gestion interne, de départs d'employés et de plusieurs lancements de produits (tels que Llama 4) au sein de sa division d'IA. Le PDG de Meta, Mark Zuckerberg, espère apparemment que le nouveau laboratoire revitalisera la stratégie de l'entreprise en matière d'IA et assurera la position de Meta aux côtés de concurrents tels que Microsoft, Google et Amazon.

La recherche en IA de Meta a toujours été dirigée par Yann LeCun, lauréat du prix Turing et pionnier des réseaux neuronaux. Le point de vue de Yann LeCun sur le développement de l'IA diffère de celui de nombreux acteurs du domaine : il estime que des idées entièrement nouvelles sont nécessaires pour parvenir à l'AGI, plutôt que de se contenter d'adapter les technologies actuelles. On ne sait pas encore si son rôle changera à l'avenir au sein de Meta.

Yann LeCun est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Malgré le nom, Yann LeCun estime que l'IA n'est pas du tout intelligente. Interrogé sur les limites actuelles de l'IA, il s'est concentré sur l'IA générative formée sur de grands modèles de langage, affirmant qu'elle n'est pas intelligente en raison du fait qu'elle est uniquement guidée par le langage.

« Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'IA », a-t-il déclaré. Selon lui, l'IA est encore loin d'une intelligence canine ou féline.

Meta a fait l'objet de vives critiques en avril lorsque des chercheurs extérieurs ont découvert que les critères d'évaluation de ses nouveaux modèles d'IA Llama étaient conçus pour faire paraître les produits plus performants qu'ils ne l'étaient en réalité. Selon le rapport du New York Times, Mark Zuckerberg était contrarié par le fait que les acteurs de l'industrie pensaient qu'il essayait de dissimuler les performances médiocres de la dernière version de Llama.

Les Big Tech continuent à injecter des milliards dans un concept nébuleux

La capacité de développer une superintelligence semble assez impressionnante sur le papier, il n'est donc pas surprenant que Meta ne soit pas la première entreprise à poursuivre explicitement cette technologie hypothétique. En juin 2024, l'ancien scientifique en chef d'OpenAI, Ilya Sutskever, a fondé la startup Safe Superintelligence pour poursuivre cet objectif spécifique. Il a quitté OpenAI à la suite de l'épisode du licenciement temporaire de Sam Altman.

« Cette société est spéciale dans la mesure où son premier produit sera la superintelligence sûre, et qu'elle ne fera rien d'autre jusqu'à ce moment-là. Elle sera totalement isolée des pressions extérieures liées à la gestion d'un produit vaste et compliqué et à la course à la concurrence », avait-il déclaré l'époque.

Cependant, la recherche de la superintelligence s'accompagne d'un scepticisme important de la part de nombreux chercheurs en IA. Pedro Domingos, professeur d'informatique à l'université de Washington, a critiqué le concept de « superintelligence sûre » poursuivi par Ilya Sutskever. Le professeur a déclaré : « le succès de la nouvelle société d'Ilya Sutskever est garanti, car une superintelligence qui n'est jamais atteinte est garantie d'être sûre ».

Par ailleurs, les partisans et les détracteurs de l'IA ne gardent que rarement à l'esprit le fait que, selon certaines définitions étroites, les assistants d'IA sont déjà superintelligents. Par exemple, les systèmes d'IA actuels peuvent effectuer des recherches et rédiger des rapports sur un grand nombre de sujets à une vitesse qu'aucun humain ne peut égaler. Bien sûr, ils peuvent également faire des erreurs plus rapidement que n'importe quel humain.

Ainsi, leurs capacités sont inégales et insatisfaisantes pour ceux qui recherchent un cerveau informatique de science-fiction infaillible, capable d'agir de manière autonome sans surveillance humaine. C'est pourquoi la superintelligence est souvent qualifiée de science-fiction par les critiques, car il s'agit d'une qualité qui ne sera peut-être jamais universellement définie de manière objective, comme l'a noté la chercheuse en IA Margaret Mitchell.

Conclusion

Mark Zuckerberg espère qu'Alexandr Wang pourrait apporter la réponse aux problèmes de Meta en matière d'IA. Ce dernier a fondé Scale AI en 2016 et a déjà aidé des entreprises comme OpenAI, Microsoft et Cohere à construire des technologies d'IA en fournissant des services d'étiquetage de données. En outre, Scale AI aide le Pentagone à créer un cadre complet de test et d'évaluation pour l'IA générative au sein du ministère américain de la Défense.

Meta investit dans l'IA depuis plus de dix ans. Mark Zuckerberg a créé le premier laboratoire d'IA de l'entreprise en 2013, après avoir perdu face à Google une tentative d'acquisition d'une startup pionnière appelée DeepMind. DeepMind est aujourd'hui au cœur des efforts de Google en matière d'IA.

La superintelligence reste un concept hypothétique et mal défini. À l'heure actuelle, elle ressemble plus à un label permettant à l'industrie d'attirer les investissements et d'enthousiasmer les actionnaires. Meta a encore du mal à concurrencer efficacement ses rivaux dans le domaine des grands modèles de langage (LLM). Pour rappel, les investissements massifs de Meta dans le métavers se sont soldés par un échec cuisant et des pertes colossales.

Et vous ?

Quel est votre avis sur le sujet ?
Meta se lance dans la course à la superintelligence ? Qu'en pensez-vous ?
L'industrie parviendra-t-elle un jour à une forme de superintelligence ? Pourquoi ?
Yann LeCun affirme que les idées actuelles ne conduiront pas à l'AGI. Qu'en pensez-vous ?
Le rôle de Yann LeCun changera-t-il à l'avenir au sein de Meta avec l'arrivée d'Alexandr Wang ?

Voir aussi

Le responsable de l'IA chez Meta affirme que l'IA ne menacera jamais l'humanité et met en garde contre une réglementation prématurée, qui pourrait empêcher la concurrence dans le secteur

« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind pour le développement responsable des systèmes d'IA

Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques en opposition à d'autres d'avis que cette perspective relève de l'illusion
Vous avez lu gratuitement 35 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !