Samsung Electronics a annoncé mercredi qu'il avait développé la première mémoire à large bande passante (HBM) de l'industrie intégrée avec la puissance de traitement de l'intelligence artificielle (IA). Selon l'entreprise, la nouvelle architecture de traitement In-memory (PIM) apporte de puissantes capacités de calcul de l'IA dans la mémoire haute performance, afin d'accélérer le traitement à grande échelle dans les centres de données, les systèmes de calcul haute performance (HPC) et les applications mobiles compatibles avec l'IA.
La plupart des systèmes informatiques actuels sont basés sur l'architecture von Neumann, qui utilise des unités de processeur et de mémoire séparées pour effectuer des millions de tâches de traitement de données complexes. Cette approche de traitement séquentiel exige que les données se déplacent constamment dans les deux sens, ce qui entraîne un goulot d'étranglement dans le système, en particulier lors du traitement de volumes de données toujours plus importants, d’après Samsung.
Cependant, la nouvelle puce, appelée HBM-PIM, apporte la puissance de traitement directement là où les données sont stockées en plaçant un moteur IA optimisé par DRAM à l'intérieur de chaque banque de mémoire - une sous-unité de stockage - permettant un traitement parallèle et minimisant le mouvement des données.
Lorsque la nouvelle architecture de traitement In-memory est appliquée à la solution HBM2 Aquabolt existante de Samsung, elle est capable de fournir plus de deux fois les performances du système tout en réduisant la consommation d'énergie de plus de 70 %. Samsung a ajouté que HBM-PIM utilise la même interface HBM que les anciennes itérations, ce qui signifie que les clients n'auront pas à changer de matériel et de logiciel pour appliquer la nouvelle puce dans leurs systèmes existants.
« Notre HBM-PIM révolutionnaire est la première solution PIM programmable du secteur adaptée à diverses charges de travail basées sur l'IA, telles que le HPC, la formation et l'inférence. Nous prévoyons de tirer parti de cette avancée en collaborant davantage avec les fournisseurs de solutions d'IA pour des applications PIM encore plus avancées », a déclaré Kwangil Park, vice-président senior de la planification des produits mémoire chez Samsung Electronics.
En fournissant ces performances améliorées, Samsung a déclaré qu'il s'attendait à ce que la nouvelle puce accélère le traitement à grande échelle dans les centres de données, les systèmes informatiques à haute performance et les applications mobiles basées sur l'intelligence artificielle.
Rick Stevens, directeur associé pour l'informatique, l'environnement et les sciences de la vie du laboratoire Argonne, a déclaré : « Je suis ravi de voir que Samsung relève les défis de la bande passante mémoire et de la puissance pour le HPC et l'IA. La conception du HBM-PIM a démontré des performances et des gains de puissance impressionnants sur des classes importantes d'applications d'IA, nous sommes donc impatients de travailler ensemble pour évaluer ses performances sur d'autres problèmes qui intéressent Argonne National Laboratory ».
Samsung a commencé la production de sa DRAM HBM2 (High Bandwidth Memory) de 2,4 Gbps par broche de 8 Go de "seconde génération", baptisée Aquabolt, en 2018. Cette mémoire peut traiter 307 Go de données en une seconde, a déclaré le géant technologique sud-coréen à l’époque. En ayant quatre paquets de DRAM, un système peut traiter 1,2 To de données par seconde.
Samsung a atteint 2,4 Gbps en empilant 8 niveaux de puces de 8Gb sur une puce tampon. Le géant de la technologie avait qualifié sa DRAM HBM2 d’une offre super-premium qui est destinée aux supercalculateurs, aux solutions d'intelligence artificielle et aux cartes graphiques. La puce lancée en 2018 est venue après la HBM Flarebolt, qui offrait 1,6 Gbps et 2 Gbps.
La DRAM HBM2 a eu du succès au lancement. En juin 2018, Samsung annoncé que même si tous les fabricants de HBM2 doublaient leur production, ils seraient incapables de répondre à la demande à l’époque. Pendant ce temps, bon nombre de sociétés réfléchissaient à de nouveaux produits qui bénéficieraient très largement des capacités améliorées de cette mémoire. Pourtant, Samsung ne pouvait pas vraiment augmenter sa production de HBM2. En effet, le même équipement était utilisé pour produire les autres types de mémoire de la compagnie (la famille DDR), dont la demande était extrêmement haute (tous les téléphones utilisant de la mémoire DDR).
La puce est actuellement testée dans les accélérateurs d’IA des clients et les tests devraient être terminés au cours du premier semestre de cette année. Samsung travaille également avec ses clients pour créer un écosystème et standardiser la plateforme. Le document de Samsung sur la mémoire HBM-PIM a été sélectionné pour être présenté à la célèbre Conférence internationale virtuelle sur les circuits à semi-conducteurs (ISSCC) qui se tiendra jusqu'au 22 février.
Source : Samsung
Et vous ?
Que pensez-vous de la nouvelle mémoire HBM-PIM de Samsung ?
Voir aussi :
La mémoire HBM2 pourra monter jusque 24 Go par puce, en empilant jusque douze couches de mémoire, avec un débit jusque 307 Go/s
Samsung annonce ses puces de mémoire HBM2E, nom de code "Flashbolt" 16 Go par puce et un débit de 410 Go/s
Mémoire HBM : la demande dépasse très largement les capacités de production actuelle, selon les prévisions de Samsung
Samsung a développé une mémoire à large bande passante avec traitement IA intégré,
Qui doublera la performance des systèmes d'IA, selon la société
Samsung a développé une mémoire à large bande passante avec traitement IA intégré,
Qui doublera la performance des systèmes d'IA, selon la société
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !