OpenAI et NVIDIA ont officialisé une alliance stratégique : la création d’une infrastructure de 10 GW pour soutenir les prochains modèles d’intelligence artificielle. Pour donner un ordre de grandeur, cette puissance équivaut à la production continue de dix réacteurs nucléaires modernes. Jamais une entreprise privée n’avait envisagé de mobiliser un tel niveau d’énergie uniquement pour des besoins informatiques.Le premier gigawatt sera opérationnel en 2026, et le projet complet pourrait s’étaler sur la décennie. NVIDIA promet jusqu’à 100 milliards de dollars d’investissements, OpenAI y voit la clé pour franchir le cap vers la « superintelligence ». Derrière l’effet d’annonce, c’est aussi une consolidation du pouvoir technologique : l’un fabrique les puces, l’autre développe les modèles, et ensemble, ils verrouillent un monopole de fait.
Du côté d’OpenAI, l’objectif est clair : disposer de l’infrastructure nécessaire pour franchir un nouveau cap vers ce que l’entreprise appelle la « superintelligence », ou intelligence artificielle générale (AGI). L’idée est que seule une puissance de calcul à cette échelle permettra d’entraîner et de faire tourner des modèles beaucoup plus vastes, capables de résoudre des problèmes scientifiques, économiques et sociétaux jusque-là hors de portée.
« NVIDIA et OpenAI se sont mutuellement stimulés pendant une décennie, depuis le premier supercalculateur DGX jusqu'à la percée de ChatGPT », a déclaré Jensen Huang, le fondateur et PDG de NVIDIA. « Ce partenariat en matière d'investissement et d'infrastructure marque un nouveau bond en avant : le déploiement de 10 gigawatts pour alimenter la prochaine ère de l'intelligence. »
Ce partenariat révèle un défi inédit : où trouver une électricité continue, abondante et si possible décarbonée pour alimenter ce monstre de silicium ? L’IA ne consomme pas seulement pour calculer. Elle engloutit aussi de l’énergie pour refroidir les machines, sécuriser les réseaux, et garantir une disponibilité 24h/24. Le risque est clair : faute de planification, ces centres pourraient dépendre encore largement de charbon ou de gaz.
Des installations nécessitant autant d'électricité que plusieurs villes
Ce partenariat fait suite à la croissance rapide du nombre d'utilisateurs d'OpenAI, qui atteint désormais 700 millions d'utilisateurs actifs par semaine. Lundi, après l'annonce, l'action Nvidia a progressé de près de 4 %, ajoutant environ 170 milliards de dollars à sa capitalisation boursière. Ce partenariat fait de Nvidia le partenaire stratégique privilégié d'OpenAI en matière de calcul et de réseau, aux côtés des relations existantes d'OpenAI avec Microsoft, Oracle, SoftBank et les partenaires du projet Stargate récemment annoncé.
« Tout commence par le calcul », a déclaré Sam Altman, cofondateur et PDG d'OpenAI. « L'infrastructure informatique sera la base de l'économie du futur, et nous utiliserons ce que nous construisons avec NVIDIA pour créer de nouvelles avancées en matière d'IA et permettre aux particuliers et aux entreprises d'en tirer parti à grande échelle. »
« Nous travaillons en étroite collaboration avec NVIDIA depuis les débuts d'OpenAI », a déclaré Greg Brockman, cofondateur et président d'OpenAI. « Nous avons utilisé leur plateforme pour créer des systèmes d'IA que des centaines de millions de personnes utilisent chaque jour. Nous sommes ravis de déployer 10 gigawatts de puissance de calcul avec NVIDIA afin de repousser les limites de l'intelligence et de faire profiter tout le monde des avantages de cette technologie. »
Ce projet de 10 gigawatts représente une échelle incroyablement ambitieuse et encore inédite pour une infrastructure d'IA. Jensen Huang a déclaré à CNBC que les 10 gigawatts prévus équivalent à la consommation électrique de 4 à 5 millions de processeurs graphiques, ce qui correspond au total des livraisons de GPU de la société pour cette année et double...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.



OpenAI aurait émis des réserves quant à l'efficacité des puces de Nvidia. Qu'en pensez-vous ?