IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Jensen Huang voudrait faire évoluer Nvidia d'un simple vendeur de puces IA à un fabricant de serveurs IA complets, afin de contrôler l'ensemble de la pile matérielle et d'accroître les marges de l'entreprise

Le , par Mathis Lucas

143PARTAGES

6  0 
Nvidia contrôle près de 90 % des parts de marché des puces ou accélérateurs pour l'IA. Mais le PDG Jensen Huang en veut toujours plus. Un analyste de JP Morgan rapporte que Nvidia s'efforce de passer à une stratégie de serveurs IA à l'échelle d'un rack, et au lieu de se contenter d'être responsable d'une partie de la chaîne d'approvisionnement, l'entreprise cherche à obtenir « tout le gâteau ». Nvidia fournirait désormais des systèmes complets aux fournisseurs, en unifiant les conceptions de racks pour un déploiement plus rapide. Cette approche permet à Nvidia de réaliser des marges plus élevées, tout en réduisant celles des principaux OEM et ODM.

Pour ceux qui ne le savent pas, la chaîne d'approvisionnement IA de Nvidia repose sur plusieurs partenaires responsables de divers éléments des produits finaux. En ce qui concerne les racks de serveurs IA, des entreprises taïwanaises telles que Foxconn, Quanta et Wistron représentent une part importante des étapes de fabrication. Cependant, les choses pourraient changer à partir du lancement de la plateforme Vera Rubin pour l'IA et le HPC en 2026.

Dans l'approche conventionnelle, Nvidia ne fournissait que des composants tels que des GPU IA ou les cartes nécessaires à la configuration des serveurs, comme le Bianca Port UPB. Cependant, lors de la présentation des résultats financiers du troisième trimestre de Wistron Corporation, un ODM taïwanais, un analyste de JP Morgan a mentionné que Nvidia s'oriente vers la « fourniture directe » de systèmes complets, ce qui aura un impact considérable.

Si l'approche conventionnelle s'est initialement avérée fructueuse pour Nvidia, les configurations à l'échelle du rack n'étant pas aussi importantes qu'aujourd'hui, il semble que la société cherche à changer de stratégie. Nvidia souhaiterait unifier les conceptions de racks et réduire les délais de mise sur le marché.

Cette approche pourrait entraîner des changements importants dans la chaîne d'approvisionnement en matériel informatique dédié à l'IA. En effet, selon JP Morgan (via @Jukanlosreve), Nvidia prévoit à l'avenir de fournir à ses partenaires des plateaux informatiques VR200 Level-10 (L10) entièrement assemblés, avec tout le matériel informatique, les systèmes de refroidissement et les interfaces préinstallés. À ce stade, cette information reste officieuse.


Si l'on résume cette évolution, il semble que Nvidia fournira désormais des « plans » à des partenaires tels que Wistron, Foxconn et Quanta, que ceux-ci devront respecter lors de la production de systèmes d'IA. Cela empêchera les fournisseurs de concevoir des architectures de rack individuelles. Il ne serait pas faux de dire que Nvidia avait déjà l'intention d'adopter cette approche lorsqu'il a introduit son « architecture de référence modulaire MGX ».

Dans un récent rapport, JP Morgan a dénoncé les dépenses excessives consacrées à l'IA. La banque estime qu'il faudra que l'IA générative génère environ 650 milliards de dollars de revenus annuels pour que l'industrie obtienne un rendement de seulement 10 % sur le développement de l'IA.

Nvidia veut contrôler de la chaîne d'approvisionnement IA

La plateforme MGX définit l'architecture physique et électrique de l'ensemble du serveur, passant d'un nœud unique à des « usines d'IA » à l'échelle d'un rack complet. Le concept a été testé avec le module de calcul GB200, lorsque Nvidia a fourni la carte Bianca avec les composants clés préinstallés. Cependant, à l’époque, cela pouvait être considéré comme une intégration L7–L8, tandis qu’aujourd’hui, l'entreprise envisagerait de passer à L10.

Plus précisément, Nvidia envisage de vendre l'ensemble du plateau, y compris les accélérateurs, le processeur, la mémoire, les cartes réseau, le matériel d'alimentation, les interfaces midplane et les plaques de refroidissement liquide. L'ensemble sera expédié sous forme de module préassemblé et testé.

Si ces informations sont exactes et que Nvidia fournit effectivement à ses partenaires des plateaux de calcul L10 (qui représentent environ 90 % du coût d'un serveur), alors Nvidia ne laissera aux principaux ODM que l'intégration au niveau du rack plutôt que la conception du serveur. Les partenaires tels que Foxconn et Wistron auront très peu de travail comparativement à l'approche conventionnelle de Nvidia, ce qui réduirait également leurs marges.

Les principaux ODM continueront à construire le châssis extérieur, à intégrer les alimentations en fonction des besoins, à installer des sidecars ou des CDU pour le refroidissement au niveau du rack, à ajouter leur propre BMC et leur propre pile de gestion, et à effectuer l'assemblage final et les tests. Cependant, bien que tâches soient importantes sur le plan opérationnel, elles ne permettent pas de différencier le matériel de manière significative.

Grâce à cette approche, Nvidia réduit les délais de déploiement, qui passent de 9 à 12 mois à seulement 90 jours, puisque 80 % du système est prédéfini et validé par Nvidia. Cela signifie que les nouvelles architectures seront livrées beaucoup plus rapidement aux clients. Nvidia...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !