Nvidia a annoncé lundi l'arrivée de la plateforme Blackwell, qui permet aux entreprises du monde entier de construire et d'exécuter une IA générative en temps réel sur des modèles de langage à plusieurs milliards de paramètres. D'après l'entreprise, Blackwell comporte six technologies transformatrices pour l'accélération du calcul, qui aideront à réaliser des percées dans le traitement des données, la simulation d'ingénierie, l'automatisation de la conception électronique, la conception de médicaments assistée par ordinateur, l'informatique quantique et l'IA générative - autant d'opportunités industrielles émergentes pour Nvidia.
Nvidia a ajouté que Blackwell a un coût et une consommation d'énergie jusqu'à 25 fois inférieurs à ceux de son prédécesseur (Hopper 100 ou H100). La GPU H100 coûte entre 25 000 et 40 000 dollars l'unité. La génération Hopper, introduite en 2022, représentait une augmentation significative du prix des puces d'IA de Nvidia par rapport à la génération précédente. Lors d'une interview avec CNBC mardi, le PDG Jensen Huang a annoncé que la nouvelle génération de puces de Nvidia coûtera entre 30 000 et 40 000 dollars l'unité. Il a déclaré à CNBC : « nous avons dû inventer une nouvelle technologie pour rendre cela possible ».
Il a estimé que Nvidia a dépensé environ 10 milliards de dollars en frais de recherche et de développement. Il a expliqué que le coût n'est pas seulement lié à la puce, mais aussi à la conception des centres de données et à l'intégration dans les centres de données d'autres entreprises. Blackwell existe en trois variantes : B100, B200 et GB200. Les performances de la GPU Blackwell B200, doté de 192 Go de mémoire HBM3E, sont certes impressionnantes, mais le fabricant de puces a révélé que ces chiffres sont le fruit d'une conception à double puce qui embarque 204 milliards de transistors au total (soit 104 milliards par puce).
L'on ignore si Huang parlait du Blackwell B200 en annonçant cette fourchette de prix, mais il convient de noter que l'accélérateur H100 est une solution à carte unique. Il est probablement intéressant de comparer le prix du B200 à celui du produit H100 NVL à double carte destiné à l'entraînement de grands modèles de langage. Toutefois, le H100 NVL n'est pas vraiment vendu au détail, ce qui rend l'analyse des coûts de Nvidia beaucoup plus compliquée. La plateforme GB200 à double puce de Nvidia avec 192 Go de mémoire HBM3E coûtera nettement plus cher que la GPU GH100 à simple puce avec 80 Go de mémoire.
En outre, un autre élément à prendre en compte concernant l'accélérateur B200 est que l'entreprise n'est peut-être pas vraiment encline à vendre des modules ou des cartes B200. Elle pourrait être beaucoup plus encline à vendre des serveurs DGX B200 avec huit GPU Blackwell ou même des DGX B200 SuperPOD avec 576 GPU B200 à l'intérieur pour des millions de dollars chacun. Le PDG souligné que l'entreprise préférait vendre des supercalculateurs ou des DGX B200 SuperPOD avec beaucoup de matériel et de logiciels qui se vendent à des prix élevés. Nvidia ne présente pas de cartes ou de modules B200 sur son site Web.
L'action de Nvidia a grimpé mardi après que le fabricant de puces a annoncé que sa nouvelle puce d'IA phare devrait être livrée plus tard cette année et que le PDG a déclaré qu'il poursuivait un marché de centres de données potentiellement valant plus 250 milliards de dollars. L'action de Nvidia a augmenté de près de 2 % à 901 dollars. Les actions avaient chuté de près de 4 % plus tôt dans la journée. « Nous pensons que nous allons arriver sur le marché dans le courant de l'année », a déclaré la directrice financière de Nvidia Colette Kress, en référence à la nouvelle puce d'IA Blackwell de l'entreprise, présentée lundi.
Huang a estimé que les entreprises exploitant des centres de données dépenseront plus de 250 milliards de dollars par an pour les moderniser avec des composants informatiques accélérés. Il a déclaré que ce marché augmentait de 25 % par an. Nvidia passe de la vente de puces individuelles à la vente de systèmes complets, ce qui pourrait lui permettre d'obtenir une plus grande part des dépenses dans les centres de données. Cependant, certains analystes financiers appellent à la prudence et invitent les investisseurs à ne pas s'affoler après l'annonce des performances théoriques du nouvel accélérateur d'IA de Nvidia.
David Wagner, gestionnaire de portefeuille chez Aptus Capital Advisors, a déclaré : « la technologie Blackwell montre une augmentation significative des performances par rapport à Hopper (la puce phare actuelle), mais il est toujours difficile d'être à la hauteur du battage médiatique ». Selon certains analystes financiers, l'IA est en train de devenir une nouvelle bulle spéculative qui pourrait être probablement pire que la bulle des dotcoms. Au centre de l'euphorie de Wall Street pour l'IA, l'action de Nvidia a plus que triplé au cours des 12 derniers mois, ce qui en fait la troisième entreprise américaine la plus précieuse.
Nvidia annonce une nouvelle génération de puces d'IA tous les deux ans environ. Les plus récentes, comme Blackwell, sont généralement plus rapides et plus économes en énergie, et Nvidia profite de la publicité faite autour d'une nouvelle génération de puce pour engranger des commandes de nouvelles GPU. Blackwell combine deux puces et est physiquement plus grand que la génération précédente. Les puces d'IA de Nvidia ont permis de tripler les ventes trimestrielles de Nvidia depuis que le boom de l'IA a démarré fin 2022, après la publication du chatbot ChatGPT d'OpenAI.
Au cours de l'année écoulée, la plupart des grandes entreprises et des développeurs d'IA ont utilisé la puce H100 de Nvidia pour entraîner leurs modèles d'IA. Par exemple, les entreprises comme Meta Microsoft et Google ont acheté des centaines de milliers de GPU Nvidia H100 au cours des dernières années.
Source : Jensen Huang, PDG de Nvidia
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la nouvelle puce Blackwell de Nvidia et de ses performances ?
Que pensez-vous de la fourchette de prix annoncée pour les nouveaux accélérateurs d'IA de Nvidia ?
Quels impacts la puce Blackwell pourrait avoir sur Nvidia et sur le développement de l'IA dans les années à venir ?
Voir aussi
Nvidia dévoile la GPU Blackwell B200, la "puce la plus puissante au monde" pour l'IA qui "réduit les coûts et la consommation d'énergie jusqu'à 25 fois" par rapport à un H100, selon Nvidia
La folie spéculative n'en finit plus d'enfler la bulle de l'IA, mais jusqu'à quand ? La capitalisation boursière de Nvidia est désormais supérieure à celle de Google et d'Amazon
Des conseillers en investissement paient le prix pour avoir vendu ce qui ressemblait beaucoup à des contes de fées sur l'IA, ils sont condamnés à 400 000 $ d'amendes pour avoir dupé leurs clients