IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une start-up chinoise fondée par un ingénieur de Google affirme avoir développé sa propre puce TPU pour l'IA
Un ASIC personnalisé qui serait 1,5 fois plus rapide que le GPU A100 de Nvidia et 42 % plus efficace

Le , par Alex

4PARTAGES

11  0 
La start-up chinoise Zhonghao Xinying, spécialisée dans les puces d'IA, s'est imposée comme une alternative locale à Nvidia avec une nouvelle unité de traitement tensoriel (TPU), alors même que Google bouleverse la domination de Nvidia sur le marché en vendant ses puces tensorielles maison directement aux grandes entreprises technologiques. Sa puce phare, baptisée Chana, offre jusqu'à « 1,5 fois les performances de calcul » de l'unité de traitement graphique (GPU) à cœur tensoriel A100 de Nvidia, tout en « réduisant la consommation d'énergie de 30 % pour des charges de travail équivalentes sur des modèles de grande taille et en ramenant le coût de calcul unitaire à 42 % de celui de Nvidia », selon la société.

L'unité de traitement Tensor (TPU) est un circuit intégré spécifique à une application (ASIC) accélérateur d'IA développé par Google pour l'apprentissage automatique des réseaux neuronaux, à l'aide du logiciel TensorFlow de Google. Google a commencé à utiliser les TPU en interne en 2015, puis les a mis à la disposition de tiers en 2018, à la fois dans le cadre de son infrastructure cloud et en proposant à la vente une version plus petite de la puce.

Par rapport à un processeur graphique (GPU), les TPU sont conçus pour un volume élevé de calculs de faible précision (par exemple, une précision de seulement 8 bits) avec plus d'opérations d'entrée/sortie par joule, sans matériel pour la rastérisation/le mappage de texture. Différents types de processeurs sont adaptés à différents types de modèles d'apprentissage automatique. Les TPU sont bien adaptés aux réseaux neuronaux convolutifs (CNN), tandis que les GPU présentent des avantages pour certains réseaux neuronaux entièrement connectés et que les CPU peuvent présenter des avantages pour les réseaux neuronaux récurrents (RNN).

En 2020, Nvidia a dévoulé la architecture GPU Ampere A100 dédiée à l'apprentissage automatique et aux marchés HPC. Le PDG de Nvidia avait affirmé que l'A100 est le GPU NVIDIA le plus grand et le plus puissant jamais conçu, et qu'il s'agit également de la plus grande puce jamais produite sur un processus semi-conducteur de 7 nm. L'A100 compte au total 6912 cœurs FP32 CUDA, 432 cœurs Tensor et 108 SM (Streaming Multiprocessors), couplés à 40 Go de mémoire HBM2e avec une bande passante mémoire maximale de 1,6 To/s.

Récemment, la start-up chinoise Zhonghao Xinying, spécialisée dans les puces d'IA, s'est imposée comme une alternative locale à Nvidia avec une nouvelle unité de traitement tensoriel (TPU), alors même que Google bouleverse la domination de Nvidia sur le marché en vendant ses puces tensorielles maison directement aux grandes entreprises technologiques. La société basée à Hangzhou, également connue sous le nom de CL Tech, a déclaré que son unité de traitement tensoriel à usage général (GPTPU) développée en interne serait produite en série dès 2023. Sa puce phare, baptisée Chana, offre jusqu'à « 1,5 fois les performances de calcul » de l'unité de traitement graphique (GPU) à cœur tensoriel A100 de Nvidia, tout en « réduisant la consommation d'énergie de 30 % pour des charges de travail équivalentes sur des modèles de grande taille et en ramenant le coût de calcul unitaire à 42 % de celui de Nvidia », selon la société.


Les GPU sont des processeurs parallèles polyvalents et flexibles, initialement conçus pour les applications graphiques, mais désormais largement utilisés pour l'entraînement et l'inférence en matière d'IA. Les TPU, un type de circuit intégré spécifique à une application, développés par Google pour l'entraînement et l'inférence des réseaux neuronaux, offrent une efficacité et un débit supérieurs pour certaines charges de travail liées à l'apprentissage profond.

Les GPU de Nvidia sont considérés comme le pilier de l'essor mondial de l'IA, faisant de l'entreprise la plus valorisée au monde, mais de nombreux clients souhaitent réduire leur dépendance vis-à-vis du géant américain des puces électroniques. La récente décision de Google de fournir des TPU directement à Anthropic et Meta Platforms, au lieu de se contenter de leur donner accès à ses services cloud, l'a positionnée davantage comme un concurrent direct de Nvidia. Cette décision a même ébranlé la confiance du marché dans la domination à long terme de Nvidia sur le secteur.

Les développeurs chinois d'IA ont commencé à chercher des alternatives à Nvidia après que Washington ait restreint l'accès aux produits les plus avancés de l'entreprise américaine. Zhonghao Xinying a été fondée en 2018 par Yanggong Yifan, un ingénieur électricien formé à Stanford et à l'université du Michigan qui a précédemment travaillé sur des architectures de puces chez Google et Oracle. Selon la société chinoise, il a participé à l'ensemble du cycle de conception et de déploiement des TPU v2, v3 et v4 de Google.

Le directeur technique et cofondateur Zheng Hanxun, diplômé de l'université de Californie du Sud, a précédemment occupé des postes dans la conception de puces chez Oracle et au centre de recherche et développement de Samsung Electronics à Austin, au Texas, selon son profil LinkedIn.

Dans une interview publiée en septembre par Sincere Capital, un investisseur dans la start-up, Yanggong a déclaré que pendant ses années passées dans la Silicon Valley, « il était devenu évident qu'une guerre technologique entre les États-Unis et la Chine était inévitable », ajoutant que l'IA et l'infrastructure informatique qui la sous-tend « deviendraient le principal champ de bataille ». En tant que société de puces sans usine, Zhonghao Xinying sous-traite la fabrication de ses puces à des fonderies, mais elle n'a pas révélé publiquement le nom de ses partenaires de fabrication.

Yanggong a déclaré que le TPU de Zhonghao Xinying dispose « de cœurs IP entièrement autocontrôlés, d'un jeu d'instructions personnalisé et d'une plateforme informatique entièrement interne ». « Nos puces ne dépendent d'aucune licence technologique étrangère, ce qui garantit leur sécurité et leur durabilité à long terme au niveau architectural », a-t-il déclaré. « Nous avons multiplié les performances par 1,5 tout en réduisant la consommation d'énergie de 75 % grâce à un processus de fabrication d'un ordre de grandeur inférieur à celui des principales puces GPU étrangères », a déclaré Yanggong dans un discours prononcé en juin.

La société a également présenté Taize, un cluster de calcul à grande échelle reliant 1 024 unités Chana, capable de prendre en charge la formation de modèles de base de l'ordre du 1000 milliards de paramètres. Yanggong a déclaré lors d'une conférence industrielle en juin qu'un « TPU de nouvelle génération » était en cours de développement, sans donner de calendrier. En août, Zhonghao Xinying a annoncé son intention d'acquérir le fabricant de pièces automobiles Tip Corporation, coté à la bourse de Shanghai, une décision qui a fait passer le cours de l'action de ce dernier d'environ 30 yuans à l'époque à 140 yuans aujourd'hui.

Les documents financiers relatifs à l'acquisition ont révélé qu'en 2023, Zhonghao Xinying avait généré 485 millions de yuans (68,4 millions de dollars) de chiffre d'affaires et 81,3 millions de yuans de bénéfice net, provenant en grande partie du TPU Chana. Le chiffre d'affaires est passé à 598 millions de yuans en 2024, avec un...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !