
s'il n'avait pas annulé le GPU Larrabee
Intel, la grande enseigne américaine des semi-conducteurs, a exprimé sa frustration face à la suprématie de Nvidia dans le domaine de l’intelligence artificielle. Le PDG d’Intel, Pat Gelsinger, a déclaré que Nvidia avait bénéficié d’un coup de chance avec sa plateforme CUDA, qui permet d’optimiser les performances de ses accélérateurs d’IA. Selon lui, l’industrie entière est motivée à éliminer le marché de CUDA, qu’il considère comme des « douves peu profondes et petites». Gelsinger a fait ces remarques lors de l’événement “AI Everywhere”, qui a vu le lancement des nouveaux processeurs Intel Core Ultra et Intel 5e génération Xeon “Emerald Rapids”. Il a affirmé qu’Intel avait les capacités et les technologies pour rivaliser avec Nvidia dans l’IA, notamment grâce à son modèle OpenVINO, qui permet de déployer des applications d’IA sur différents types de périphériques.
Lors de l'événement "AI Everywhere", qui a marqué le dévoilement des nouveaux processeurs Intel Core Ultra et Intel Xeon de 5e génération "Emerald Rapids" de Chipzilla, le PDG d'Intel est monté sur scène et a fait des remarques assez controversées sur les énormes progrès de NVIDIA sur les marchés de l'IA, affirmant que l'industrie est prête à « éliminer » le marché CUDA, grâce à l'adoption de nouvelles méthodes de formation, et à prendre de l'avance sur le « marché de l'inférence ».

L'approche de l'entreprise en matière d'IA est conçue de manière à donner la priorité aux développements d'inférence plutôt qu'à la formation de modèles, principalement parce qu'elle [l'inférence] est beaucoup plus économe en ressources et peut s'adapter à des données en évolution rapide sans avoir besoin de recycler un modèle. Intel a également profité de l'occasion pour vanter son modèle OpenVINO, affirmant qu'il serait vital de faire la transition vers les marchés de nouvelle génération.
« Au fur et à mesure que l'inférence se produit, une fois que vous avez formé le modèle… Il n'y a pas de dépendance à CUDA », a poursuivi Gelsinger. « La question est de savoir si vous pouvez bien exécuter ce modèle ? » Il a suggéré qu'avec Gaudi 3, présenté pour la première fois sur scène, Intel serait à la hauteur du défi et serait également capable de le faire avec les PC Xeon et Edge. Non pas qu'Intel ne soit pas compétitif en matière de formation, mais « fondamentalement, c'est sur le marché de l'inférence que se déroulera le jeu », a déclaré Gelsinger.
Sandra Rivera, vice-présidente exécutive et directrice générale du groupe Data Center and AI chez Intel, a ajouté que l'échelle d'Intel, du centre de données au PC, pourrait en faire un partenaire de choix, car il peut produire en volume.
Deux entreprises avec deux visions différentes sur l'évolution de l'IA
Les deux entreprises ne sont pas d’accord sur le rythme de développement des puces et sur la question de savoir si la loi de Moore s’applique toujours.
En 2022, le PDG d'Intel a déclaré lors d'un événement de lancement de l'entreprise que la loi de Moore, une règle empirique du fondateur d'Intel datant des années 1960, est « bien vivante ». La théorie, avancée par Gordon Moore, implique que les puces continueront à devenir plus rapides et moins chères à un rythme prévisible.
Nvidia, quant à elle, prêche un message très différent. Le co-fondateur et PDG Jensen Huang a déclaré l'année dernière que la loi de Moore était terminée : « La méthode d'utilisation des transistors par force brute et les progrès de la loi de Moore ont largement fait leur chemin », a déclaré Huang aux investisseurs après avoir dévoilé de nouveaux produits. Selon lui, il faut désormais recourir à des architectures spécialisées et à des logiciels avancés pour faire progresser l’IA.
Cette divergence souligne le contraste frappant entre Intel et les autres sociétés américaines de semi-conducteurs. Intel s'est engagé à continuer de fabriquer certaines de ses puces, tandis que Nvidia et d'autres s'appuient principalement sur des fonderies tierces en dehors des États-Unis.
La loi de Moore fait spécifiquement référence au nombre de transistors sur une puce, qui, selon Moore, doublerait tous les deux ans, améliorant ainsi la puissance de traitement. Pour augmenter le nombre de transistors sur une puce, il faut les rendre plus petits, ce qui nécessite des progrès dans la technologie de fabrication.
Nvidia mise sur sa plateforme CUDA, lancée en 2007, pour offrir une expérience unifiée et optimisée aux développeurs et aux chercheurs en IA. CUDA permet d’utiliser les GPU de Nvidia, qui sont conçus pour le calcul parallèle, pour accélérer les applications d’IA, notamment l’entraînement des modèles. Nvidia affirme que sa plateforme CUDA est utilisée par plus de 2,3 millions de développeurs dans le monde, et qu’elle est compatible avec les principaux frameworks et bibliothèques d’IA.
Nvidia a également renforcé sa position dans l’IA en rachetant des entreprises clés, comme Mellanox, qui fournit des solutions de connectivité pour les centres de données, ou Arm, qui conçoit des processeurs basse consommation pour les appareils mobiles et embarqués. Nvidia espère ainsi créer un écosystème d’IA complet, allant du cloud aux périphéries.
Un coup de chance ?
Discutant de l'émergence des GPU comme arme de choix pour les derniers grands modèles d'IA, Gelsinger a expliqué qu'il pensait que Nvidia et son PDG, Jensen Huang, se trouvaient au bon endroit au bon moment. « Jensen a travaillé très dur pour avoir de la puissance de calcul, principalement pour les graphiques au début, puis a eu une chance extraordinaire », a déclaré Gelsinger. Gelsinger a également souligné que l'IA ne faisait pas partie du plan initial de Nvidia en matière de GPGPU ou de calcul général sur GPU. « Ils ne voulaient même pas soutenir leur premier projet d'IA », a observé Gelsinger.
De plus, Gelisnger a également affirmé que les choses auraient été très différentes si Intel n'avait pas annulé le projet Larrabee peu de temps après son départ pour 11 ans en dehors d'Intel avant de revenir en tant que PDG en février 2021.
« Quand j'ai été expulsé d'Intel il y a 13 ans, ils ont tué le projet qui aurait changé la forme de l'IA », a déclaré Gelsinger à propos de Larrabee.
Larrabee était un projet de GPU Intel bien avant ses cartes graphiques Arc actuelles, destiné à affronter Nvidia sur les marchés des jeux et des GPGPU grâce à des dizaines de minuscules cœurs de processeur x86. Les cartes graphiques de jeu ont été annulées fin 2009 et le reste du projet Larrabee s'est flétri par la suite.
Le moment exact où Nvidia a réellement commencé à développer ses GPU en tant qu’outils pour les modèles d’IA est discutable. Bien sûr, l’IA n’était pas de la partie lorsque l’entreprise a commencé à promouvoir le GPGPU.
Voici un passage d'un premier document Nvidia de 2007 décrivant l'utilisation et les avantages de sa plate-forme originale CUDA 1.0, le logiciel qui permet un calcul haute performance sur les GPU Nvidia, au-delà du simple traitement graphique et d'image.
De nombreux algorithmes en dehors du domaine du rendu et du traitement d'images sont accélérés par le traitement parallèle des données, du traitement général du signal ou de la simulation physique à la finance informatique ou à la biologie computationnelle.
D’un autre côté, c’est Nvidia qui a poussé le GPGPU vers l’avant, qui a développé les GPU CUDA et Nvidia pour en faire la puissante force qu’ils sont aujourd’hui. Nvidia n’a peut-être pas nécessairement vu la révolution de l’IA venir dès le début. Mais la société a misé bien plus que quiconque sur les GPU.
Alors Nvidia a-t-il eu de la chance ? En partie, certainement. Nvidia et Huang n’avaient pas vu venir la révolution de l’IA lorsqu’ils se sont lancés dans le projet GPGPU. Ou s’ils l’ont fait, ils ont manifestement omis de le mentionner. Mais il y a aussi un dicton attribué à tout le monde, du père fondateur Thomas Jefferson au golfeur professionnel Gary Player, qui s'applique sûrement ici et ressemble à ceci : « Je crois beaucoup à la chance, et je trouve que plus je travaille dur, plus j'ai de la chance ».
Concurrence n'exclut pas partenariat
Intel n'a...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.