Microsoft, Amazon, OpenAI et d'autres entreprises engagées dans la course à l'IA alimentent une demande sans précédent pour les accélérateurs GPU de Nvidia. Cette situation a propulsé la croissance de Nvidia au cours du dernier trimestre. Mercredi, Nvidia a publié les résultats du trimestre couvrant la période de mai à juillet et ces derniers ont dépassé ses prévisions. Le chiffre d'affaires de Nvidia a doublé par rapport à la même période de l'année dernière pour atteindre 13,51*milliards de dollars, culminant avec un bénéfice de 6,2 milliards de dollars, soit 2,48 dollars par action, plus de neuf fois plus que ce que le fabricant de puces a réalisé il y a un an.
Ces deux chiffres sont nettement supérieurs aux prévisions des analystes interrogés par FactSet Research. Et l'élan se poursuit. Nvidia prévoit que son chiffre d'affaires pour le trimestre allant d’août à octobre s'élèverait à 16 milliards de dollars, soit environ le triple de ses ventes par rapport à la même période de l'année dernière. FactSet a rapporté que les analystes tablaient sur un chiffre d'affaires de 12,6 milliards de dollars pour cette période englobant le troisième trimestre fiscal de Nvidia. Les centres de données ont représenté un chiffre record de 10,32 milliards de dollars et Nvidia a réalisé un bénéfice de 6,188 milliards de dollars en conséquence.
« Nous nous attendons à ce que la croissance séquentielle soit largement tirée par les centres de données », a déclaré Colette Kress, directrice financière de Nvidia, lors de la conférence téléphonique sur les résultats. Les ventes liées aux jeux ont augmenté de 22 % d'une année sur l'autre pour atteindre 2,48 milliards de dollars de revenus. Nvidia affirme qu'elle pense que le jeu est de retour à la croissance, avec une opportunité de mise à niveau non spécifiée pour les joueurs. La société pense que 20 % de sa base d'installation a maintenant une RTX 3060 ou mieux. Le cours de l'action de Nvidia a bondi de 6 % après la publication de ces chiffres.
Le cours de l'action a déjà plus que triplé depuis le début de l'année, une hausse qui a porté la valeur de marché de Nvidia à 1 200 milliards de dollars, un seuil qui a propulsé l'entreprise parmi l'élite de l'industrie technologique. Si les actions augmentent de la même manière au cours de la séance régulière de jeudi, cela marquera un nouveau record pour les actions de Nvidia et augmentera la valeur de marché de l'entreprise d'environ 75 milliards de dollars supplémentaires. Apple, Microsoft, Amazon et Alphabet, la société mère de Google, sont d'autres piliers qui sont actuellement ou ont été récemment évalués à 1 000 milliards de dollars ou plus.
Aujourd'hui, tous ces géants de la technologie, ainsi qu'une longue série d'autres entreprises et de startups spécialisées dans l'IA, s'arrachent les puces d'IA Nvidia. La puce H100 de Nvidia, un accélérateur GPU, serait actuellement le matériel informatique le plus recherché au monde pour la formation de systèmes d'IA générative. Lancé en mars de l'année dernière, cet accélérateur GPU a été décrit par Nvidia comme l'une des puces les plus puissantes qu'il ait jamais construites, ainsi que l'une des plus chères, puisqu'elle coûte environ 40 000 dollars l'unité. Le fabricant de puces a déclaré qu'il avait du mal à faire face à la demande, qui ne cesse d'augmenter.
« Il s'agit d'une nouvelle plateforme informatique, si vous voulez, d'une nouvelle transition informatique qui est en train de se produire », a déclaré Jensen Huang, PDG de Nvidia, mercredi lors de la conférence téléphonique avec des analystes. Le lancement de la puce H100 semblait mal tombé, car l'annonce a été faite à un moment où les entreprises cherchaient à réduire leurs dépenses dans un contexte d'incertitude économique et d'inflation galopante. Puis, en novembre, ChatGPT a été lancé. Le chatbot d'IA d'OpenAI a été adopté par plus de 100 millions d'utilisateurs en à peine un mois, ce qui a propulsé la course à l'IA à un niveau supérieur.
La puce H100 s'avère particulièrement populaire auprès des Big Tech, qui construisent des centres de données entiers centrés sur les charges de travail d'IA, et des startups d'IA telles que Stability AI, OpenAI, Anthropic et Inflection AI, car il promet des performances plus élevées qui peuvent accélérer les lancements de produits ou réduire les coûts de formation au fil du temps. Microsoft et Google, qui développent des moteurs de recherche basés sur l'IA générative, comptent parmi les plus gros clients des puces H100 de Nvidia. Les fabricants de serveurs affirment avoir attendu plus de six mois pour recevoir leurs dernières commandes.
Les investisseurs en capital-risque achètent des puces H100 pour les startups dans lesquelles ils investissent. Elon Musk, qui a acheté des milliers de puces Nvidia pour sa nouvelle startup d'IA X.ai, a déclaré lors d'un événement cette semaine qu'à l'heure actuelle, "les GPU sont beaucoup plus difficiles à obtenir que les médicaments". « Le coût du calcul est devenu astronomique. L'investissement minimum doit être de 250 millions de dollars en matériel serveur [afin de construire des systèmes d'IA générative] », a déclaré Musk. Le milliardaire n'a toutefois pas précisé s'il fait référence aux nouvelles puces H100 ou aux puces de Nvidia en général.
Cependant, les Big Tech et les startups d'IA ne sont pas les seules qui cherchent à sécuriser les accélérateurs GPU H100. La rumeur indique que l'Arabie saoudite et les Émirats arabes unis auraient acheté des milliers de ces puces à 40 000 dollars pour créer leurs propres applications d'IA. Cette forte demande pour une seule puce de la part d'une seule entreprise a donné lieu à une sorte de frénésie d'achat. « Qui obtient combien de H100 et quand, c'est le sujet de discussion dans Silicon Valley », a déclaré Andrej Karpathy, d'OpenAI, sur un message sur X (ex-Twitter, renommé X après le rachat par Elon en novembre de l'année dernière).
La puce H100 est le successeur des GPU A100 de Nvidia, qui ont été à la base des efforts de développement des grands modèles de langage (LLM) modernes. La puce H100 serait jusqu'à neuf fois plus rapide pour la formation de l'IA et 30 fois plus rapide pour l'inférence que l'A100. « En termes d'accès, oui, c'est ce à quoi ressemble la montée en puissance d'une nouvelle architecture de GPU », a déclaré Ian Buck, responsable de l'activité hyperscale et de calcul de haute performance de Nvidia. La puce H100, d'une taille inhabituelle, est un accélérateur GPU conçu pour fonctionner dans les centres de données et compte 80 milliards de transistors.
Bien qu'elle soit deux fois plus chère que son prédécesseur, l'A100 lancée en 2020, les premiers utilisateurs affirment que la puce H100 offre des performances au moins trois fois supérieures. « La H100 résout la question de l'évolutivité qui se posait aux créateurs de modèles [d'IA]. C'est important, car cela nous permet de former plus rapidement des modèles plus importants, alors que le problème passe de la recherche à l'ingénierie », a déclaré Emad Mostaque, cofondateur et PDG de Stability AI, l'entreprise à l'origine du service de génération d'images Stable Diffusion. Selon les experts, la demande des puces H100 devrait se poursuivre à la hausse.
La prochaine puce d'IA de Nvidia, la GH200, sera disponible à la mi-2024 pour un prix non divulgué, de sorte que la demande du prochain trimestre concernera toujours les puces d'IA existant. « Notre offre au cours des prochains trimestres continuera à augmenter à mesure que nous réduisons le temps de cycle et que nous travaillons avec nos partenaires fournisseurs pour augmenter la capacité », a déclaré Kress. Elle estime que le GPU L40 de Nvidia aidera à répondre à la demande croissante pour de nombreux types de charges de travail. Les principaux rivaux de Nvidia, Intel et AMD, n'ont pas encore de réponses convaincantes au silicium d'IA de Nvidia.
Le MI300 d'AMD pourrait commencer à arriver dès le quatrième trimestre et se déployer au début de 2024. AMD et Intel tentent également, au moins temporairement, de minimiser l'importance de placer ces puces d'IA dans des serveurs dans le cloud. « Si vous vous projetez dans cinq ans, vous verrez l'IA dans tous les produits d'AMD, et ce sera le plus grand moteur de croissance », a déclaré Lisa Su, PDG d'AMD, en mai dernier.
Source : Nvidia
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
La puce d'IA Nvidia H100 à 40 000 dollars est devenue le matériel informatique le plus convoité au monde, et rapproche Nvidia des 1 000 milliards de dollars de capitalisation boursière
NVIDIA franchit temporairement la barre des 1 000 milliards de dollars de capitalisation boursière grâce à la forte demande en IA, devenant le premier fabriquant de puces à rejoindre les GAFA
Conférence NVIDIA GTC : les annonces phares concernant l'IA générative et le cloud, le métavers, les grands modèles de langage et les différents partenariats avec Microsoft, Google, Oracle et AWS