Un grand réseau de supercalculateurs visant à accélérer le développement de l'AGI
L'AGI est un concept futuriste qui vise à concevoir une machine dotée d'une cognition de niveau humain et capable d'autodidacte. L'objectif est que le logiciel soit capable d'effectuer des tâches pour lesquelles il n'est pas nécessairement formé ou développé. L'AGI une avancée significative par rapport aux systèmes d'IA actuels qui excellent dans des domaines spécifiques sur la base de leurs données d'apprentissage, mais peinent à accomplir des tâches cognitives ou de raisonnement dans d'autres domaines. Par exemple, les modèles d'IA entraînés à la génération d'image ne sont pas capables de créer des sites Web.
En théorie, l'AGI peut résoudre des problèmes complexes dans des situations et des contextes qui ne lui ont pas été enseignés au moment de sa création. Cependant, l'industrie encore est loin de cette révolution en raison de plusieurs défis qu'elle peine à relever. Et pour accélérer les choses, l'entreprise d'IA SingularityNET a annoncé qu'elle s'apprête à déployer un réseau de superordinateurs. SingularityNET est une plateforme décentralisée basée sur la blockchain qui vise à créer un marché mondial pour les services d'IA. Elle a été lancée en 2017 par Ben Goertzel, mathématicien et chercheur américain en IA.
Mais l'initiative suscite le scepticisme. Précédemment, Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, a déclaré que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM. Pour lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. En outre, certains critiques pensent que l'industrie peut augmenter la puissance de calcul à sa guise, mais que cela ne suffit pas de créer une machine capable de penser par elle-même.
Envoyé par Critique
Ces composants comprennent : des processeurs graphiques (GPU) L40S de Nvidia, des processeurs Instinct et Genoa d'AMD, des baies de serveurs Tenstorrent Wormhole dotées de GPU H200 de Nvidia, ainsi que des systèmes Blackwell GB200 de Nvidia. L'ensemble constitue l'un des matériels d'IA les plus puissants disponibles sur le marché. Ces composants font partie du matériel le plus puissant disponible aujourd'hui pour la formation et l'inférence des modèles d'IA.
Un framework open source pour faciliter le développement d'une superintelligence
« Ce supercalculateur constituera en soi une percée dans la transition vers l'AGI. Bien que les nouvelles approches d'IA neuronale-symbolique développées par l'équipe d'IA de SingularityNET réduisent quelque peu les besoins en données, en traitement et en énergie par rapport aux réseaux neuronaux profonds standard, nous avons toujours besoin d'importantes installations de supercalculateurs », a déclaré Ben Goertzel, cofondateur et PDG de SingularityNET.
SingularityNET vise à fournir un accès aux données pour la croissance de l'AGI et d'une future superintelligence artificielle, un système hypothétique beaucoup plus avancé cognitivement que n'importe quel humain. Pour ce faire, SingularityNET a développé un logiciel unique appelé "OpenCog Hyperon" pour gérer le cluster de calcul fédéré (distribué). « OpenCog Hyperon est un logiciel libre conçu spécifiquement pour l'architecture des systèmes d'IA. Cette nouvelle infrastructure matérielle est spécialement conçue pour mettre en œuvre OpenCog Hyperon et son écosystème AGI », a déclaré Goertzel.
Pour permettre aux utilisateurs d'accéder au superordinateur, Goertzel et son équipe utilisent un système de jetons, courant dans le domaine de l'IA. Les utilisateurs ont accès au supercalculateur et, grâce à leurs jetons, ils peuvent utiliser et ajouter des données aux ensembles existants sur lesquels les autres utilisateurs s'appuient pour tester et déployer les concepts de l'AGI. Dans leur forme la plus simple, les jetons d'IA imitent les jetons des jeux vidéo autonomes des salles d'arcade. Les joueurs devaient acheter des jetons qu'ils inséraient ensuite dans le jeu vidéo pour obtenir un certain nombre de chances de jouer.
Dans ce cas, les données collectées en jouant au jeu sont accessibles à tous les autres joueurs, non seulement dans une salle d'arcade, mais aussi dans les autres salles d'arcade du monde entier. « Le GPT-3 a été entraîné sur 300 milliards de jetons (généralement des mots, des parties de mots ou des signes de ponctuation), et le GPT-4 sur 13 000 milliards », a laissé entendre Nabeel S. Qureshi, chercheur au sein du think tank Mercatus et ingénieur en logiciel.
Lors d'une conférence en 2018, Goertzel a déclaré : « je ne pense pas que nous ayons besoin d'algorithmes fondamentalement nouveaux. Je pense que nous devons connecter nos algorithmes d'une manière différente de ce que nous faisons aujourd'hui. Si j'ai raison, alors nous avons déjà les algorithmes de base dont nous avons besoin. Je pense que nous sommes à moins de dix ans de la création d'une IA de niveau humain ». Une prédiction audacieuse qui suscite le scepticisme.
Cependant, il est loin d'être le seul à faire ce type de déclaration audacieuse. Shane Legg, cofondateur de Google DeepMind, a déclaré que l'IA pourrait atteindre ou dépasser l'intelligence humaine d'ici 2028. Mark Mark Zuckerberg, PDG de Meta, poursuit activement l'AGI en investissant 10 milliards de dollars dans la construction de l'infrastructure nécessaire à la formation de modèles d'IA avancés en janvier. Meta envisage même de décupler sa puissance de calcul.
Les réseaux électriques n'étaient pas préparés à la croissance subite de la demande
La création de ce réseau de superordinateurs met en lumière la demande croissante d'une immense puissance de calcul pour la recherche sur l'IA. Bien que le projet en soit encore à ses débuts, le déploiement du premier nœud constitue une étape importante. Si le projet est couronné de succès, ce réseau pourrait devenir l'épine dorsale de la recherche sur l'AGI, en fournissant l'infrastructure nécessaire pour relever certains des défis les plus complexes dans ce domaine. Cependant, l'impact climatique de cette nouvelle infrastructure potentiellement énergivore suscite de profondes préoccupations.
La croissance rapide de l'IA a fait grimper la demande en énergie à un niveau plus élevé que ce qui était prévu. Aux États-Unis, elle mettrait déjà à rude épreuve les capacités de production du pays. Grid Strategies estime que les prévisions de croissance sur neuf ans pour l'Amérique du Nord ont pratiquement doublé par rapport à l'année dernière, car les entreprises construisent des centres de données pour l'IA qui font paraître minuscules les besoins des centres de données traditionnels. Où cela nous mène-t-il ? Comment pouvons-nous naviguer dans un avenir énergétique durable avec l'explosion de l'utilisation de l'IA ?
Aux États-Unis, les analystes rapportent que les réseaux électriques atteignent peu à peu leur limite. L'année dernière, les prévisions à cinq ans de Grid Strategies tablaient sur une croissance de 2,6 %. Depuis, ce chiffre a presque doublé pour atteindre 4,7 % et les planificateurs de Grid Strategies s'attendent à ce que la demande de pointe augmente de 38 gigawatts. Cela équivaut à la quantité nécessaire pour alimenter 12,7 millions de foyers, soit un peu plus que le nombre total d'unités d'habitation au Texas. Mais plus inquiétant encore, les analystes pensent que ce chiffre est probablement une sous-estimation des besoins réels.
L'IA est un élément majeur du problème en ce qui concerne l'augmentation de la demande. Les leaders du secteur, comme OpenAI, Amazon, Microsoft et Google, construisent ou recherchent des sites où construire d'énormes centres de données pour héberger l'infrastructure nécessaire au développement de grands modèles de langage, et les entreprises plus petites du secteur sont également très demandeuses d'énergie. Par exemple, selon l'Agence internationale de l'énergie, "une recherche pilotée par ChatGPT consomme environ 10 fois plus d'électricité qu'une recherche sur le moteur de recherche Google".
La consommation annuelle d'énergie d'un centre de données de Meta basé dans l'Iowa est équivalente à celle de 7 millions d'ordinateurs portables fonctionnant huit heures par jour. L'appétit énergétique de l'IA remet aussi en question les engagements en faveur du climat. La résurgence de l'énergie fossile dans les centres de données pour répondre aux besoins de l'IA contraste fortement avec les engagements de durabilité des entreprises comme Microsoft, Google et Meta.
Elles prévoient de supprimer entièrement leurs émissions d'ici à 2030. Cependant, l'IA remet en question ces initiatives. Ces entreprises sont les acteurs les plus importants d'une constellation de plus de 2 700 centres de données à travers les États-Unis. Et la construction de nouveaux centres de données est envisagée.
Source : SingularityNET
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du réseau de superordinateurs annoncé par SingularityNET ?
Cette infrastructure va-t-il accélérer le développement de l'AGI comme le prétend SingularityNET ?
Voir aussi
« La bulle de la GenAI n'éclatera pas, car les applications à haute valeur ajoutée arriveront assez vite pour éviter que les PDG des Big Tech ne s'épuisent sur la GenAI », affirme l'expert en IA Ben Goertzel
Si l'humanité parvient à franchir le goulot d'étranglement que constitue la sécurité de l'AGI, on pourrait entrer dans une nouvelle ère d'épanouissement maximal de l'humanité, selon Demis Hassabis
Meta va décupler sa puissance de calcul dans le cadre de la formation de Llama 4 et pourrait le lancer l'année prochaine, mais l'impact climatique de cette infrastructure potentiellement énergivore inquiète