IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

AMD annonce l'Instinct MI300, des accélérateurs d'IA générative et des APU pour centres de données
Qui offrent des performances jusqu'à 1,3 fois plus élevées dans les charges de travail d'IA

Le , par Anthony

5PARTAGES

3  0 
AMD a annoncé ses derniers produits et technologies pour l'intelligence artificielle (IA) et le calcul haute performance (HPC) lors de son événement Advancing AI, visant à contester la domination de rivaux tels que NVIDIA Corp. et Intel Corp. sur ce marché en pleine croissance.

Le 6 décembre 2023, AMD a annoncé la disponibilité des accélérateurs AMD Instinct™ MI300X - avec une bande passante mémoire à la pointe du secteur pour l'IA générative et des performances de premier plan pour la formation et l'inférence de grands modèles de langage (LLM). L'entreprise a également présenté l'unité de traitement accélérée (APU) AMD Instinct™ MI300A - combinant la dernière architecture AMD CDNA™ 3 et les CPU "Zen 4" pour offrir des performances révolutionnaires pour les charges de travail HPC et IA.

"Les accélérateurs AMD Instinct MI300 Series sont conçus avec nos technologies les plus avancées, offrant des performances de leader, et seront dans les déploiements cloud et d'entreprise à grande échelle", a déclaré Victor Peng, président d'AMD. "En s'appuyant sur notre approche matérielle, logicielle et d'écosystème ouvert leader, les fournisseurs de cloud, les OEM et les ODM mettent sur le marché des technologies qui donnent aux entreprises les moyens d'adopter et de déployer des solutions alimentées par l'IA."

Adoption par les clients et les partenaires

Parmi les clients qui tirent parti du dernier portefeuille d'accélérateurs AMD Instinct, citons Microsoft, qui a récemment annoncé la nouvelle série de machines virtuelles (VM) Azure ND MI300x v5, optimisée pour les charges de travail d'IA et alimentée par les accélérateurs AMD Instinct MI300X. En outre, El Capitan - un supercalculateur alimenté par des APU AMD Instinct MI300A et hébergé au Lawrence Livermore National Laboratory - devrait être le deuxième supercalculateur de classe exascale alimenté par AMD et devrait fournir plus de deux exaflops de performance en double précision lorsqu'il sera entièrement déployé. Oracle Cloud Infrastructure prévoit d'ajouter des instances bare metal basées sur AMD Instinct MI300X aux instances de calcul accéléré haute performance de l'entreprise pour l'IA. Les instances basées sur MI300X sont prévues pour prendre en charge OCI Supercluster avec un réseau RDMA ultrarapide.

Plusieurs grands équipementiers ont également présenté des systèmes de calcul accéléré, parallèlement à l'événement AMD Advancing AI. Dell a présenté le serveur Dell PowerEdge XE9680 doté de huit accélérateurs AMD Instinct MI300 Series et de la nouvelle conception validée Dell pour l'IA générative avec des frameworks d'IA alimentés par AMD ROCm. HPE a récemment annoncé le HPE Cray Supercomputing EX255a, la première lame accélératrice de supercalculateur alimentée par des APU AMD Instinct MI300A, qui sera disponible début 2024. Lenovo a annoncé sa prise en charge de la conception des nouveaux accélérateurs AMD Instinct MI300 Series, dont la disponibilité est prévue pour le premier semestre 2024. Supermicro a annoncé de nouveaux ajouts à sa génération H13 de serveurs accélérés alimentés par des CPU AMD EPYC™ de 4e génération et des accélérateurs AMD Instinct MI300 Series.


AMD Instinct MI300X

Les accélérateurs AMD Instinct MI300X sont alimentés par la nouvelle architecture AMD CDNA 3. Par rapport aux accélérateurs AMD Instinct MI250X de la génération précédente, MI300X offre près de 40 % d'unités de calcul en plus, 1,5 fois plus de capacité mémoire, 1,7 fois plus de bande passante mémoire théorique maximale, ainsi que la prise en charge de nouveaux formats mathématiques tels que FP8 et sparsity, tous orientés vers les charges de travail d'IA et de HPC.

Les LLM d'aujourd'hui continuent d'augmenter en taille et en complexité, nécessitant des quantités massives de mémoire et de calcul. Les accélérateurs AMD Instinct MI300X disposent d'une capacité de mémoire HBM3 de 192 Go, la meilleure de sa catégorie, ainsi que d'une bande passante mémoire de pointe de 5,3 To/s, afin de fournir les performances nécessaires aux charges de travail d'IA de plus en plus exigeantes. La plateforme AMD Instinct est une plateforme d'IA générative de premier plan construite sur un design OCP standard avec huit accélérateurs MI300X pour offrir une capacité de mémoire HBM3 de 1,5 To. La conception standard de la plateforme AMD Instinct permet aux partenaires OEM de concevoir des accélérateurs MI300X dans les offres AI existantes, de simplifier le déploiement et d'accélérer l'adoption des serveurs basés sur les accélérateurs AMD Instinct.

Par rapport au NVIDIA H100 HGX, la plateforme AMD Instinct peut offrir une augmentation de débit allant jusqu'à 1,6x lors de l'exécution de l'inférence sur des LLM comme BLOOM 176B4 et constitue la seule option du marché capable d'exécuter l'inférence pour un modèle à 70B paramètres, comme Llama2, sur un seul accélérateur MI300X ; simplifiant les déploiements LLM de classe entreprise et permettant un coût total de possession exceptionnel.

AMD Instinct MI300A

Les APU AMD Instinct MI300A, les premiers APU de centre de données au monde pour le HPC et l'IA, s'appuient sur le packaging 3D et l'architecture Infinity AMD de 4ème génération pour offrir des performances de premier plan sur les charges de travail critiques à la convergence du HPC et de l'IA. Les APU MI300A combinent des cœurs de GPU AMD CDNA 3 haute performance, les derniers cœurs de CPU AMD "Zen 4" basés sur le x86 et 128 Go de mémoire HBM3 de nouvelle génération, pour offrir ~1,9 fois la performance par watt sur les charges de travail FP32 HPC et AI, par rapport à l'AMD Instinct MI250X5 de la génération précédente.

L'efficacité énergétique est de la plus haute importance pour les communautés HPC et AI, mais ces charges de travail sont extrêmement gourmandes en données et en ressources. Les APU AMD Instinct MI300A bénéficient de l'intégration des cœurs de CPU et de GPU sur un seul boîtier, ce qui permet d'obtenir une plateforme très efficace tout en offrant les performances de calcul nécessaires pour accélérer l'entraînement des derniers modèles d'IA. AMD donne le ton de l'innovation en matière d'efficacité énergétique avec son objectif 30x25, qui vise à améliorer de 30 fois l'efficacité énergétique des processeurs de serveurs et des accélérateurs pour la formation à l'IA et le HPC entre 2020 et 2025.

L'avantage de l'APU signifie que les APU AMD Instinct MI300A disposent de ressources de mémoire et de cache unifiées offrant aux clients une plateforme GPU facilement programmable, un calcul très performant, un entraînement rapide à l'IA et une efficacité énergétique impressionnante pour alimenter les charges de travail HPC et IA les plus exigeantes.

Logiciel ROCm et partenaires de l'écosystème

AMD a annoncé la dernière plateforme logicielle ouverte AMD ROCm™ 6 ainsi que l'engagement de l'entreprise à contribuer à des bibliothèques de pointe à la communauté open-source, faisant progresser la vision de l'entreprise en matière de développement de logiciels d'IA open-source. Le logiciel ROCm 6 représente un bond en avant significatif pour les outils logiciels AMD, augmentant les performances d'accélération de l'IA de ~8x lors de l'exécution sur les accélérateurs de la série MI300 dans la génération de texte Llama 2 par rapport au matériel et au logiciel de la génération précédente. En outre, ROCm 6 prend en charge plusieurs nouvelles fonctionnalités clés pour l'IA générative, notamment FlashAttention, HIPGraph et vLLM, entre autres. Ainsi, AMD est particulièrement bien placé pour exploiter les modèles, algorithmes et frameworks logiciels d'IA open-source les plus largement utilisés - tels que Hugging Face, PyTorch, TensorFlow et d'autres - stimulant l'innovation, simplifiant le déploiement des solutions d'IA d'AMD et libérant le véritable potentiel de l'IA générative.

AMD continue également d'investir dans les capacités logicielles par le biais des acquisitions de Nod.AI et de Mipsology, ainsi que par le biais de partenariats stratégiques avec l'écosystème, tels que Lamini - qui exécute des LLM pour les clients d'entreprise - et MosaicML - qui exploite AMD ROCm pour permettre l'entraînement LLM sur les accélérateurs AMD Instinct sans aucun changement de code.

Spécifications des produits


Source : "AMD Delivers Leadership Portfolio of Data Center AI Solutions with AMD Instinct MI300 Series" (Communiqué de presse d'AMD)

Et vous ?

Quel est votre avis sur cette gamme de produits AMD Instinct MI300 et sur ses performances ?

Voir aussi

AMD acquiert Nod.ai, une start-up spécialisée dans les logiciels d'intelligence artificielle, dans le but de renforcer ses capacités logicielles et de rattraper Nvidia

Meta et Microsoft annoncent qu'ils achèteront la nouvelle puce d'IA d'AMD pour remplacer celle de Nvidia

AMD prévoit le lancement d'une puce d'IA d'ici la fin de l'année pour concurrencer Nvidia et voit l'opportunité de l'IA en Chine

Une erreur dans cette actualité ? Signalez-nous-la !