IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Huit géants technologiques s'associent contre NVIDIA sous le nom d'Ultra Accelerator Link : ils proposent une nouvelle norme d'interconnexion
Pour les puces accélératrices d'IA dans les centres de données

Le , par Stéphane le calme

11PARTAGES

5  0 
Le 30 mai 2024, plusieurs grandes entreprises technologiques, dont Google, Intel, Microsoft, Meta, AMD, Hewlett Packard Enterprise, Cisco et Broadcom, ont annoncé la création du Groupe promoteur Ultra Accelerator Link (UALink) pour développer une nouvelle norme d’interconnexion pour les puces accélératrices d’IA dans les centres de données. Cette initiative vise à créer une alternative à la technologie d’interconnexion propriétaire NVLink de Nvidia, qui relie plusieurs serveurs alimentant les applications d’IA d’aujourd’hui, telles que ChatGPT.

AMD, Broadcom, Cisco, Google, HPE, Intel, Meta et Microsoft ont uni leurs forces pour développer Ultra Accelerator Link (UALink), une nouvelle norme industrielle permettant une interconnexion à grande vitesse et à faible latence pour les accélérateurs d'IA et de HPC de qualité centre de données. UALink permettra d'interconnecter jusqu'à 1 024 accélérateurs au sein d'un même module, ce qui constituerait une avancée majeure. La technologie UALink sera essentiellement en concurrence avec NVLink de Nvidia, c'est pourquoi l'entreprise verte ne participe pas à son développement.

L'initiative UALink vise à créer une norme ouverte permettant aux accélérateurs d'intelligence artificielle de communiquer plus efficacement. La première spécification UALink, version 1.0, permettra de connecter jusqu'à 1 024 accélérateurs au sein d'un pod de calcul d'IA dans un réseau fiable, évolutif et à faible latence. Cette spécification permet des transferts de données directs entre la mémoire attachée aux accélérateurs, tels que les GPU Instinct d'AMD ou les processeurs spécialisés comme Gaudi d'Intel, améliorant ainsi les performances et l'efficacité du calcul de l'IA.

Les cœurs battants de l’IA de nos jours résident dans les GPU, capables d’effectuer un grand nombre de multiplications de matrices, nécessaires pour exécuter des architectures de réseaux neuronaux en parallèle. Cependant, un seul GPU ne suffit souvent pas pour les systèmes d’IA complexes. NVLink permet de connecter plusieurs puces accélératrices d’IA au sein d’un serveur ou entre plusieurs serveurs. Ces interconnexions permettent un transfert de données plus rapide et une meilleure communication entre les accélérateurs, leur permettant de travailler ensemble de manière plus efficace sur des tâches complexes telles que la formation de grands modèles d’IA.

Cette interconnexion est un élément clé de tout système de centre de données IA moderne, et celui qui contrôle la norme de liaison peut dicter efficacement le matériel que les entreprises technologiques utiliseront. Dans cette optique, le groupe UALink cherche à établir une norme ouverte permettant à plusieurs entreprises de contribuer et de développer des avancées matérielles en IA, plutôt que d’être enfermées dans l’écosystème propriétaire de Nvidia. Cette approche est similaire à d’autres normes ouvertes, telles que Compute Express Link (CXL), créée par Intel en 2019, qui fournit des connexions haute vitesse et haute capacité entre les CPU et les périphériques ou la mémoire dans les centres de données.

« Le travail effectué par les entreprises d'UALink pour créer une structure d'accélération ouverte, performante et évolutive est essentiel pour l'avenir de l'IA », écrit Forrest Norrod, vice-président exécutif et directeur général du Data Center Solutions Group d'AMD dans le communiqué de presse. « Ensemble, nous apportons une vaste expérience dans la création de solutions d'IA à grande échelle et de calcul de haute performance qui sont basées sur des normes ouvertes, l'efficacité et un soutien robuste de l'écosystème. AMD s'engage à apporter son expertise, ses technologies et ses capacités au groupe ainsi qu'à d'autres efforts de l'industrie ouverte pour faire progresser tous les aspects de la technologie de l'IA et solidifier un écosystème ouvert de l'IA. »

« Broadcom est fier d'être l'un des membres fondateurs du Consortium UALink, en s'appuyant sur son engagement à long terme pour augmenter la mise en œuvre de la technologie AI à grande échelle dans les centres de données. Il est essentiel de soutenir la collaboration d'un écosystème ouvert pour permettre des réseaux évolutifs avec une variété de solutions à haut débit et à faible latence », a déclaré Jas Tremblay, vice-président du groupe Data Center Solutions chez Broadcom.


Ce n’est pas la première fois que des entreprises technologiques s’alignent pour contrer un leader du marché de l’IA

En décembre, IBM et Meta, ainsi que plus de 50 autres organisations, ont formé une “Alliance IA” pour promouvoir des modèles IA ouverts et offrir une alternative aux systèmes IA fermés tels que ceux d’OpenAI et de Google. Étant donné la domination du marché de Nvidia, actuel leader du marché des puces IA, il n’est peut-être pas surprenant que l’entreprise n’ait pas rejoint le nouveau Groupe promoteur UALink. Le récent succès financier massif de Nvidia lui permet de continuer à forger son propre chemin. Cependant, à mesure que les grandes entreprises technologiques continuent d’investir dans le développement de leurs propres puces IA, la nécessité d’une technologie d’interconnexion normalisée devient plus pressante, en particulier comme moyen de contrer (ou du moins d’équilibrer) l’influence de Nvidia.

La version 1.0 de la norme proposée, UALink 1.0, est conçue pour connecter jusqu’à 1 024 GPU au sein d’un seul “pod” informatique, défini comme une ou plusieurs baies de serveurs. La norme est basée sur des technologies telles que l’architecture Infinity d’AMD et devrait améliorer la vitesse et réduire la latence de transfert de données par rapport aux spécifications d’interconnexion existantes

AMD, Broadcom, Google, Intel, Meta et Microsoft développent tous leurs propres accélérateurs d'IA (enfin, Broadcom les conçoit pour Google), Cisco produit des puces de réseau pour l'IA, tandis que HPE construit des serveurs. Ces entreprises sont intéressées par la standardisation d'un maximum d'infrastructures pour leurs puces, c'est pourquoi elles s'associent au sein du consortium UALink. Étant donné que Nvidia possède sa propre infrastructure, elle n'est naturellement pas intéressée par le codéveloppement d'UALink.

Source : Ultra Accelerator Link

Et vous ?

Quelle est la principale motivation derrière la création de la norme UALink par ces géants de la technologie ? Demandez aux lecteurs de réfléchir à l’importance d’une norme ouverte pour l’innovation et la concurrence dans le domaine de l’IA.
Quels avantages et inconvénients voyez-vous dans l’utilisation de la technologie d’interconnexion NVLink de Nvidia par rapport à la nouvelle norme UALink ? Encouragez les lecteurs à comparer les deux approches et à discuter de leurs implications.
Comment pensez-vous que l’adoption généralisée de la norme UALink pourrait affecter le paysage concurrentiel de l’industrie de l’IA ? Demandez aux lecteurs de réfléchir aux conséquences potentielles pour les entreprises technologiques et les utilisateurs finaux.
Quelles autres normes ouvertes existent dans le domaine de la technologie, et comment UALink se compare-t-elle à celles-ci ? Invitez les lecteurs à explorer d’autres initiatives similaires et à évaluer leurs avantages respectifs.
Pensez-vous que Nvidia réagira à cette nouvelle norme d’interconnexion ? Si oui, comment ? Encouragez les lecteurs à spéculer sur les prochaines étapes de l’entreprise.

Une erreur dans cette actualité ? Signalez-nous-la !