IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La puce d'IA Nvidia H100 à 40 000 dollars est devenue le matériel informatique le plus convoité au monde
Et rapproche Nvidia des 1 000 milliards de dollars de capitalisation boursière

Le , par Mathis Lucas

186PARTAGES

3  0 
Tout porte à croire que Nvidia est l'entreprise qui tire actuellement le plus profit de la course effrénée à l'IA suscitée par le succès éclatant de ChatGPT. Les rapports indiquent que les entreprises et les startups d'IA du monde entier se ruent sur l'accélérateur GPU H100 lancé par Nvidia l'année dernière, ce processeur étant devenu un matériel incontournable dans le développement des modèles d'IA générative. L'accélérateur GPU H100, qui peut coûter jusqu'à 40 000 dollars, aurait permis à Nvidia d'engranger des bénéfices colossaux au cours du deuxième trimestre 2023, le chiffre d'affaires de l'entreprise sur cette période étant évalué à plus de 11 milliards de dollars.

Nvidia a lancé sa puce d'IA H100 en mars de l'année dernière. L'équipementier américain a décrit cet accélérateur GPU comme l'une des puces les plus puissantes qu'il ait jamais construites, ainsi que l'une des plus chères, puisqu'elle coûte environ 40 000 dollars l'unité. Le lancement semblait mal tombé, car l'annonce a été faite à un moment où les entreprises cherchaient à réduire leurs dépenses dans un contexte d'incertitude économique et d'inflation galopante. Puis, en novembre, ChatGPT a été lancé. Le chatbot d'IA d'OpenAI a été adopté par plus de 100 millions d'utilisateurs en à peine un mois, ce qui a propulsé la course à l'IA à un niveau supérieur.

Toutefois, pour développer des modèles d'IA surpuissants, il faut une puissance de calcul importante que très peu de matériels sont capables d'offrir à l'heure actuelle. Et c'est là que Nvidia entre en piste. Les grandes entreprises technologiques et les startups se sont précipitées pour obtenir l'accélérateur GPU H100 de Nvidia. « Nous sommes passés d'une année difficile l'année dernière à un retournement de situation du jour au lendemain. Le chatbot d'IA à succès d'OpenAI a été un moment décisif. Il a créé une demande instantanée », a déclaré Jensen Huang, PDG de Nvidia. Cette demande semble avoir fait exploser tous les chiffres de l'équipementier.


En effet, l'intérêt d'avoir le bon produit au bon moment est apparu clairement cette semaine. Nvidia a annoncé mercredi que son chiffre d'affaires pour les trois mois se terminant en juillet s'élèverait à 11 milliards de dollars (soit plus de 50 % de plus que les estimations précédentes de Wall Street) grâce à la reprise des dépenses des Big Tech dans les centres de données et à la demande pour ses puces d'IA. L'annonce a fait grimper la capitalisation boursière de Nvidia de 184 milliards de dollars en une seule journée jeudi, permettant à Nvidia, qui était déjà la société de puces la plus précieuse au monde, de s'approcher d'une valorisation de 1 000 Mds $.

La puce H100 s'avère particulièrement populaire auprès des Big Tech, qui construisent des centres de données entiers centrés sur les charges de travail d'IA, et des startups d'IA telles que Stability AI, OpenAI, Anthropic et Inflection AI, car il promet des performances plus élevées qui peuvent accélérer les lancements de produits ou réduire les coûts de formation au fil du temps. Microsoft et Google, qui développent des moteurs de recherche basés sur l'IA générative, comptent parmi les plus gros clients des puces H100 de Nvidia. Les fabricants de serveurs affirment avoir attendu plus de six mois pour recevoir leurs dernières commandes.

Les investisseurs en capital-risque achètent des puces H100 pour les startups dans lesquelles ils investissent. Elon Musk, qui a acheté des milliers de puces Nvidia pour sa nouvelle startup d'IA X.ai, a déclaré lors d'un événement cette semaine qu'à l'heure actuelle, "les GPU sont beaucoup plus difficiles à obtenir que les médicaments". « Le coût du calcul est devenu astronomique. L'investissement minimum doit être de 250 millions de dollars en matériel serveur [afin de construire des systèmes d'IA générative] », a déclaré Musk. Le milliardaire n'a toutefois pas...[/afin de construire des systèmes d'ia générative]
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !