IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Intel a officiellement raté le train de l'IA dans les centres de données, mais conserve une chance à la périphérie du réseau et sur le PC,
L'abandon de Falcon Shores étant un signe de failles stratégiques

Le , par Bruno

28PARTAGES

3  0 
Intel a officiellement raté le train de l'IA dans les centres de données, mais conserve une chance à la périphérie du réseau et sur le PC,
l’abandon de Falcon Shores étant un signe de failles stratégiques

Intel a officiellement renoncé à concurrencer Nvidia et AMD sur le marché des accélérateurs d’intelligence artificielle pour les centres de données avec l’abandon de son architecture GPU Falcon Shores. Cet échec s’ajoute à une série de projets avortés, dont Rialto Bridge et Ponte Vecchio, qui devaient positionner Intel comme un acteur clé de l’IA.

Malgré cet échec, Intel conserve une présence dans l’IA avec ses accélérateurs Gaudi3. Toutefois, ceux-ci sont désormais dépassés par les nouvelles générations de Nvidia (Blackwell) et AMD (MI325X), réduisant considérablement leurs chances de succès. De plus, la roadmap d’Intel reste floue, notamment avec le projet Jaguar Shores, qui pourrait connaître le même sort que ses prédécesseurs.



Dans les centres de données, Intel se maintient grâce à ses processeurs Xeon Granite Rapids, qui restent dominants comme CPU hôtes pour les serveurs IA. Cependant, AMD et Nvidia gagnent du terrain, avec une montée en puissance des puces Epyc d’AMD et des processeurs Grace de Nvidia. Face à ces difficultés, l’avenir d’Intel dans l’IA pourrait se jouer à la périphérie du réseau et sur le PC. Avec son architecture Lunar Lake, qui intègre une NPU performante, Intel espère s’imposer dans les ordinateurs personnels équipés pour l’IA. De plus, ses CPU dotés d’extensions AMX pourraient jouer un rôle clé dans l’exécution de modèles IA à la périphérie.

L’échec d’Intel dans les centres de données soulève des questions sur sa capacité à innover et à suivre le rythme de ses concurrents. La firme souffre d’une stratégie confuse et d’un manque de différenciation face à Nvidia et AMD. Cependant, peut-elle rebondir avec une approche alternative, en misant sur l’IA à la périphérie et sur le PC ? Intel doit-elle totalement abandonner l’idée de concurrencer Nvidia et AMD dans les accélérateurs, ou existe-t-il encore une opportunité de retour en force avec une approche disruptive ?

Intel renonce à Falcon Shores, repoussant l’arrivée de Jaguar Shores

Falcon Shores, initialement prévu pour cette année et censé allier les performances des GPU Xe d'Intel à la puissance de l'IA de Gaudi, ne verra finalement jamais le jour en tant que produit commercial. Michelle Johnston Holthaus, co-PDG par intérim, a confirmé lors de la conférence sur les résultats du quatrième trimestre que cette puce restera un projet de test interne. « Nous prévoyons d'utiliser Falcon Shores uniquement comme puce de test interne, sans la commercialiser », a-t-elle déclaré.

Cette décision repousse probablement d’un an, voire deux, le lancement de la prochaine architecture GPU d’Intel, baptisée Jaguar Shores, à supposer qu’elle ne subisse pas le même sort que Ponte Vecchio, Rialto Bridge et désormais Falcon Shores. Ce n'est pas la première fois qu'Intel met un terme au développement d’un GPU censé concurrencer Nvidia et, dans une moindre mesure, AMD. Il y a près de deux ans, l’entreprise a abandonné Rialto Bridge, successeur de ses GPU Max destinés aux centres de données et prévus pour équiper le supercalculateur Aurora aux États-Unis. Toutefois, ces premières puces Max ont été utilisées, bien que de manière limitée, dans des infrastructures comme le Laboratoire national d'Argonne (États-Unis), le supercalculateur Dawn (Royaume-Uni) et le système SuperMUC-NG Phase 2 (Allemagne).

Cependant, Intel a mis fin à la commercialisation du GPU Max à la mi-2024, probablement pour concentrer ses efforts sur les accélérateurs Gaudi et préparer le lancement de Falcon Shores. Dans ce contexte, l’abandon de ce dernier semblait inévitable. Initialement prévu pour 2024, son lancement avait déjà été reporté d’un an après l’abandon de Rialto Bridge. À l’origine, Falcon Shores devait inclure une version XPU combinant CPU et GPU dans un même boîtier, mais ces ambitions ont été revues à la baisse mi-2023, laissant place à une architecture GPU plus classique. Aujourd’hui, Falcon Shores est pratiquement enterré.

Gaudi3 : L’accélérateur IA d’Intel sous pression face à une concurrence féroce

Sur le papier, les accélérateurs Gaudi3 ne semblaient pas particulièrement impressionnants lors de leur présentation en avril. Conçu pour l’IA, ce modèle affichait une puissance de calcul de 1 835 téraFLOPS en virgule flottante dense avec une précision de 8 ou 16 bits. Pour les charges de travail en BF16, couramment utilisées en calcul intensif, Gaudi3 offrait des performances presque deux fois supérieures à celles des Nvidia H100 et H200.

Concernant les tâches gourmandes en mémoire, comme l’inférence, Gaudi3 intègre 128 Go de mémoire HBM2e avec une bande passante de 3,7 To/s, lui permettant ainsi de rivaliser avec des modèles plus volumineux que le H100 tout en offrant, en théorie, un débit supérieur.

Cependant, Intel se retrouve désormais en décalage avec le marché. Gaudi3, annoncé début 2024, n’a commencé à être livré aux fabricants de systèmes que fin 2023, avec une disponibilité générale prévue pour ce trimestre. Or, la concurrence ne l’attend pas : plutôt que d’affronter les H100, Gaudi3 doit désormais se mesurer aux nouvelles générations, notamment les systèmes Blackwell de Nvidia et le MI325X d’AMD.

En entraînement, Blackwell offre une meilleure précision en virgule flottante, une mémoire plus grande et plus rapide, ainsi qu’une évolutivité nettement supérieure. Du côté d’AMD, le MI325X double la capacité mémoire et bénéficie d’une bande passante 62 % plus élevée, un atout clé pour l’inférence où ces critères sont essentiels.

Ce contexte explique peut-être pourquoi Intel n’a pas atteint l’objectif de 500 millions de dollars de revenus d’accélérateurs fixé par Pat Gelsinger pour le second semestre 2024, malgré un positionnement tarifaire agressif face à Nvidia.

Les raisons de cet échec peuvent être multiples, allant des performances globales du système à la maturité des écosystèmes logiciels concurrents. Mais le principal problème d’Intel réside dans l’avenir incertain de Gaudi3. Son successeur devait être une variante de Falcon Shores, combinant ses vastes réseaux systoliques à l’architecture graphique Xe d’Intel.

Gaudi3 pourrait encore gagner en adoption en 2025, mais l’absence de véritable mise à jour et les incertitudes entourant Jaguar Shores rendent ce scénario peu probable. Face à des alternatives issues de constructeurs dotés de feuilles de route claires et d’un historique éprouvé, peu d’acteurs voudront prendre le risque de miser sur une plateforme sans avenir.

Intel face à une concurrence accrue dans les centres de données IA

Les opportunités d’Intel pour capitaliser sur la croissance de l’IA dans les centres de données semblent se réduire. Peu importe le type de GPU ou d’accélérateur d’IA sélectionné par les opérateurs, un processeur hôte reste nécessaire, assurant à Intel une position dans l’écosystème des centres de données dédiés à l’IA.

« Nous sommes le principal fournisseur de CPU hôtes pour les serveurs d’IA, et nous voyons une opportunité considérable pour l’inférence basée sur le CPU, tant sur site qu’en périphérie, à mesure que les applications intégrant l’IA se multiplient », a déclaré Holthaus à Wall Street cette semaine. Lancée l’an dernier, la gamme Xeon Granite Rapids d’Intel s’est imposée comme l’une des plus convaincantes depuis des années, avec jusqu’à 128 cœurs, 256 threads, la prise en charge des MRDIMM à 8 800 MT/s et jusqu’à 96 voies PCIe 5.0 par socket.

Cependant, la concurrence s’intensifie. AMD continue de gagner du terrain dans les centres de données grâce à sa gamme de processeurs Epyc. Selon Mercury Research, les processeurs Ryzen détiennent désormais environ 24,2 % du marché des CPU pour serveurs.

De son côté, Nvidia, qui s’appuyait historiquement sur les processeurs Intel pour ses modèles de référence DGX, mise de plus en plus sur ses propres puces Grace, basées sur Arm, pour accompagner ses accélérateurs les plus avancés. Toutefois, Nvidia maintient le format HGX avec huit GPU par système, ce qui laisse encore à Intel une marge de manœuvre – pour l’instant.

Mais avec AMD mettant en avant l’optimisation de ses processeurs Turin pour les serveurs GPU, il est probable que davantage de fournisseurs se tournent vers des configurations entièrement AMD, combinant Epyc et Instinct. Une telle évolution pourrait encore réduire la capacité d’Intel à s’imposer dans ce secteur.

Intel exploite les AMX pour l’IA en périphérie : Une alternative aux solutions GPU

Comme de nombreux fabricants de matériel informatique grand public, Intel a anticipé l’essor de l’IA sur PC, bien avant que Microsoft ne définisse ses exigences de 40 TOPS pour Copilot+. Alors que Qualcomm avait initialement le monopole des processeurs compatibles avec Copilot+, Intel et AMD ont rapidement rattrapé leur retard, respectivement avec les lancements de Strix Point en juillet et de Lunar Lake en septembre.

Comme détaillé lors du Computex, Lunar Lake intègre une NPU de 48 TOPS en plus d'un GPU et d'un CPU, offrant ainsi à Intel une puissance combinée de 120 TOPS pour son système sur puce. Au-delà de ces caractéristiques techniques, Intel conserve une place dominante sur le marché des processeurs PC.

Bien que l’utilité des fonctions d’IA pour les utilisateurs soit encore débattue et que la concurrence avec AMD, Qualcomm et Nvidia soit féroce sur le haut de gamme, Intel demeure un acteur clé dans ce domaine.

En dehors de l’IA sur PC, la stratégie CPU d'Intel pourrait lui permettre de capter des opportunités dans la périphérie du réseau. Grâce aux blocs de calcul AMX (Advanced Matrix Extensions) intégrés depuis Sapphire Rapids, ses processeurs sont capables d'exécuter des tâches d’apprentissage automatique et d'IA générative sans avoir besoin de GPU.

Intel a d’ailleurs prouvé que des modèles LLM quantifiés en 4 bits avec 70 milliards de paramètres pouvaient atteindre 12 tokens par seconde sur ses Xeons Granite Rapids, grâce à la prise en charge de la mémoire MRDIMM.

Si l’on extrapole ces performances, un modèle de 8 milliards de paramètres pourrait générer environ 100 tokens par seconde pour un traitement en lot unitaire. Bien que l’IA reposant uniquement sur CPU soit limitée par la taille des lots, ce qui en réduit son intérêt économique, cette approche reste viable pour des appareils en périphérie de réseau traitant des modèles ponctuels. Elle présente même l'avantage de réduire la complexité et les risques de panne associés aux solutions GPU.

Pourquoi Intel peine à rivaliser dans l’IA pour centres de données

Intel traverse une crise stratégique majeure sur le marché des accélérateurs d’intelligence artificielle pour les centres de données. L’abandon de Falcon Shores, après ceux de Rialto Bridge et Ponte Vecchio, illustre une incapacité chronique à exécuter ses plans dans ce segment. Cette série d’échecs met en lumière plusieurs problèmes structurels et stratégiques qui remettent en cause la capacité d’Intel à rivaliser avec Nvidia et AMD.

Un modèle d’exécution chaotique

L’un des problèmes fondamentaux d’Intel réside dans sa gestion de projet. Les annonces de nouvelles architectures se sont enchaînées, souvent sans véritable cohérence. Falcon Shores devait initialement intégrer une approche XPU combinant CPU et GPU, avant d’être rétrogradé à une simple architecture GPU, pour finalement être abandonné. Ce schéma rappelle celui de Rialto Bridge, dont la disparition semblait évidente bien avant son annulation officielle.

L’échec de Ponte Vecchio est encore plus emblématique. Présenté comme un produit phare pour le supercalculateur Aurora, ce GPU n’a finalement jamais été disponible sur le marché grand public. Son coût de fabrication élevé (1280 mm² et 72 tuiles) le rendait non...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !