AMD a annoncé ses derniers produits et technologies pour l'intelligence artificielle (IA) et le calcul haute performance (HPC) lors de son événement Advancing AI, visant à contester la domination de rivaux tels que NVIDIA Corp. et Intel Corp. sur ce marché en pleine croissance.Le 6 décembre 2023, AMD a annoncé la disponibilité des accélérateurs AMD Instinct™ MI300X - avec une bande passante mémoire à la pointe du secteur pour l'IA générative et des performances de premier plan pour la formation et l'inférence de grands modèles de langage (LLM). L'entreprise a également présenté l'unité de traitement accélérée (APU) AMD Instinct™ MI300A - combinant la dernière architecture AMD CDNA™ 3 et les CPU "Zen 4" pour offrir des performances révolutionnaires pour les charges de travail HPC et IA.
"Les accélérateurs AMD Instinct MI300 Series sont conçus avec nos technologies les plus avancées, offrant des performances de leader, et seront dans les déploiements cloud et d'entreprise à grande échelle", a déclaré Victor Peng, président d'AMD. "En s'appuyant sur notre approche matérielle, logicielle et d'écosystème ouvert leader, les fournisseurs de cloud, les OEM et les ODM mettent sur le marché des technologies qui donnent aux entreprises les moyens d'adopter et de déployer des solutions alimentées par l'IA."
Adoption par les clients et les partenaires
Parmi les clients qui tirent parti du dernier portefeuille d'accélérateurs AMD Instinct, citons Microsoft, qui a récemment annoncé la nouvelle série de machines virtuelles (VM) Azure ND MI300x v5, optimisée pour les charges de travail d'IA et alimentée par les accélérateurs AMD Instinct MI300X. En outre, El Capitan - un supercalculateur alimenté par des APU AMD Instinct MI300A et hébergé au Lawrence Livermore National Laboratory - devrait être le deuxième supercalculateur de classe exascale alimenté par AMD et devrait fournir plus de deux exaflops de performance en double précision lorsqu'il sera entièrement déployé. Oracle Cloud Infrastructure prévoit d'ajouter des instances bare metal basées sur AMD Instinct MI300X aux instances de calcul accéléré haute performance de l'entreprise pour l'IA. Les instances basées sur MI300X sont prévues pour prendre en charge OCI Supercluster avec un réseau RDMA ultrarapide.
Plusieurs grands équipementiers ont également présenté des systèmes de calcul accéléré, parallèlement à l'événement AMD Advancing AI. Dell a présenté le serveur Dell PowerEdge XE9680 doté de huit accélérateurs AMD Instinct MI300 Series et de la nouvelle conception validée Dell pour l'IA générative avec des frameworks d'IA alimentés par AMD ROCm. HPE a récemment annoncé le HPE Cray Supercomputing EX255a, la première lame accélératrice de supercalculateur alimentée par des APU AMD Instinct MI300A, qui sera disponible début 2024. Lenovo a annoncé sa prise en charge de la conception des nouveaux accélérateurs AMD Instinct MI300 Series, dont la disponibilité est prévue pour le premier semestre 2024. Supermicro a annoncé de nouveaux ajouts à sa génération H13 de serveurs accélérés alimentés par des CPU AMD EPYC™ de 4e génération et des accélérateurs AMD Instinct MI300 Series.
AMD Instinct MI300X
Les accélérateurs AMD Instinct MI300X sont alimentés par la nouvelle architecture AMD CDNA 3. Par rapport aux accélérateurs AMD Instinct MI250X de la génération précédente, MI300X offre près de 40 % d'unités de calcul en plus, 1,5 fois plus de capacité mémoire, 1,7 fois plus de bande passante mémoire théorique maximale, ainsi que la prise en charge de nouveaux formats mathématiques tels que FP8 et sparsity, tous orientés vers les charges de travail d'IA et de HPC.
Les LLM d'aujourd'hui continuent d'augmenter en taille et en complexité, nécessitant des quantités massives de mémoire et de calcul. Les accélérateurs AMD Instinct MI300X...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.