Nvidia, le leader dans la fabrication de puces graphiques (GPU), se positionne dans la course à l'intelligence artificielle (IA) en utilisant son propre système d'IA, appelé ChipNeMo, pour accélérer la conception de ses GPU. Alors que la demande de GPU pour l'entraînement et la construction de produits d'IA augmente, Nvidia cherche à répondre à cette demande croissante en exploitant l'IA pour rendre sa production de puces plus efficace.
Les possibilités fonctionnelles de l'IA ont progressé à pas de géant au cours de la dernière décennie, et aucun endroit n'est plus propice à ce développement que la Silicon Valley. Berceau de géants de l'IA tels qu'Intel et Google, la Bay Area favorise l'émergence de talents et d'innovations extraordinaires dans le domaine de l'apprentissage automatique en profondeur. Ces entreprises d'IA de la Silicon Valley démontrent tout ce qui peut être accompli lorsque les humains et les machines travaillent côte à côte.
Selon les données de Dealroom, Nvidia a participé à 35 opérations en 2023, soit près de six fois plus que l'année précédente, consolidant sa position en tant qu'investisseur à grande échelle le plus actif dans le secteur de l'IA. Cette activité a dépassé celle des grandes sociétés de capital-risque de la Silicon Valley. Les investissements, totalisant 872 millions de dollars sur neuf mois, ont été dirigés vers des entreprises utilisant les technologies de Nvidia.
Le processus traditionnel de conception de GPU implique une main-d'œuvre importante, nécessitant environ 1 000 personnes et une compréhension approfondie du processus de conception. ChipNeMo, basé sur un grand modèle linguistique construit sur le Llama 2 de Meta, agit comme un chatbot capable de répondre à des questions liées à la conception de puces, simplifiant ainsi la formation d'ingénieurs débutants et résumant les notes de différentes équipes.
NVIDIA Research compte des centaines de scientifiques et d'ingénieurs dans le monde entier qui se concentrent sur des sujets tels que l'IA, l'infographie, la vision par ordinateur, les voitures autonomes et la robotique. D'autres projets récents dans le domaine des semi-conducteurs incluent l'utilisation de l'IA pour concevoir des circuits plus petits et plus rapides et pour optimiser le placement de gros blocs.
Les premiers résultats sont prometteurs, avec des rapports indiquant que ChipNeMo a été utile pour former des ingénieurs débutants et résumer les notes de multiples équipes. Cependant, Nvidia n'a pas confirmé si cela a directement accéléré la production de puces. Cette initiative de Nvidia intervient dans un contexte où la concurrence pour les GPU de la société s'intensifie, les entreprises cherchant à tirer parti de ces composants essentiels pour prendre l'avantage dans le domaine de l'IA. L'article souligne que Meta, par exemple, prévoit d'acquérir 600 000 GPU, dont les A100 de Nvidia, d'ici la fin de 2024.
L'IA générative pour les développeurs
L'IA générative transformera l'interaction homme-machine telle que nous la connaissons en permettant la création de nouveaux contenus basés sur une variété d'entrées et de sorties, y compris du texte, des images, des sons, des animations, des modèles 3D et d'autres types de données. Pour faire avancer les charges de travail d'IA générative, les développeurs ont besoin d'une plateforme informatique accélérée avec des optimisations complètes, de l'architecture de la puce et du logiciel système aux bibliothèques d'accélération et aux frameworks de développement d'applications.
NVIDIA propose une plateforme informatique accélérée complète spécialement conçue pour les charges de travail d'IA générative. Cette plateforme est à la fois profonde et large, offrant une combinaison de matériel, de logiciels et de services - tous construits par NVIDIA et son large écosystème de partenaires - afin que les développeurs puissent fournir des solutions de pointe.
ChipNeMo vise à explorer les applications des grands modèles de langage (LLM) pour la conception de puces industrielles. Au lieu de déployer directement des LLM commerciaux ou open-source prêts à l'emploi, nous adoptons les techniques d'adaptation au domaine suivantes : tokenizers personnalisés, pré-entraînement continu adapté au domaine, réglage fin supervisé (SFT) avec des instructions spécifiques au domaine et modèles de recherche adaptés au domaine.
NVIDIA évalue ces méthodes sur trois applications LLM sélectionnées pour la conception de puces : un chatbot d'assistant d'ingénierie, la génération de scripts EDA, et le résumé et l'analyse de bogues. Ces résultats montrent que ces techniques d'adaptation au domaine permettent des améliorations significatives de la performance LLM par rapport aux modèles de base généraux dans les trois applications évaluées, permettant jusqu'à 5 fois la réduction de la taille du modèle avec une performance similaire ou meilleure sur une gamme de tâches de conception. Les résultats indiquent également qu'il existe encore une marge d'amélioration entre les résultats actuels et les résultats idéaux.
Les développeurs peuvent choisir de s'engager avec la plateforme NVIDIA AI à n'importe quel niveau de la pile, depuis l'infrastructure, le logiciel et les modèles jusqu'aux applications, soit directement par le biais des produits NVIDIA, soit par le biais d'un vaste écosystème d'offres.
D'autres entreprises explorent également cette question
La stratégie de Nvidia semble bien accueillie sur le marché financier, avec une augmentation de 4 % de ses actions, atteignant un niveau record. Les analystes de Goldman Sachs prévoient des gains continus jusqu'au premier semestre de 2025. NVIDIA ne se démarque pas seule dans l'exploration du potentiel de l'IA pour améliorer la production de puces. Des entreprises majeures comme Google Deepmind et aussi chinoise investissent également dans des initiatives similaires, témoignant d'une tendance croissante vers l'intégration de l'IA dans la fabrication de semi-conducteurs et d'autres produits technologiques.
Une équipe de chercheurs de l’université de Tsinghua en Chine a créé une puce hybride appelée ACCEL qui combine l’électronique et l’informatique photonique. Elle serait plus efficace que la puce A100 de NVIDIA, l'une des puces d'intelligence artificielle les plus utilisées dans le monde aujourd'hui. La puce ACCEL est une puce tout-analogique qui combine la lumière et l’électricité pour faire de l’informatique.
Elle utilise à la fois la photonique, qui est l’informatique avec des photons, et l’électronique, qui est l’informatique avec des électrons. Les chercheurs affirment que la puce peut faire 74,8 milliards de milliards d’opérations par seconde en consommant seulement un watt d’énergie. « Nous proposons ici une puce entièrement analogique combinant l'électronique et la lumière, appelée ACCEL, pour des tâches de vision à haute vitesse et à faible consommation d'énergie, avec des performances et une évolutivité compétitives.
Au lieu de se tourner vers des unités numériques pour pallier les limitations de l'informatique optique, ACCEL fusionne l'informatique analogique optique diffractive (OAC) et l'informatique analogique électronique (EAC) avec l'extensibilité, la non-linéarité et la flexibilité dans une seule puce », Chercheurs de l’université de Tsinghua. Les chercheurs ont également mené des expériences pratiques au cours desquelles ACCEL a fait preuve d'une grande précision dans des tâches telles que la reconnaissance d'images et de vidéos. Concrètement, ACCEL surpasse largement les GPU traditionnels, en atteignant le même niveau de précision, mais plus rapidement et en consommant beaucoup moins d'énergie.
Microsoft dévoile ses puces d'IA Maia 100 : une concurrence sérieuse pour Nvidia
Les experts estiment que Microsoft peut rattraper les leaders du secteur tels que Nvidia et Advanced Micro Devices (AMD) avec son premier Maia 100. Les nouvelles puces de Microsoft sont dotées de 105 milliards de transistors et prennent en charge les types de données 8 bits et les processeurs de serveurs refroidis par liquide. Microsoft a annoncé son intention d'introduire une puce d'intelligence artificielle pour soutenir le développement de grands modèles de langage (LLM) et une autre pour les processus informatiques courants.
La grande entreprise technologique a confirmé son intention de se lancer dans la fabrication de puces lors de sa conférence Ignite, après des mois de préparation. Baptisée Maia 100, la dernière puce d'intelligence artificielle de Microsoft devrait concurrencer de près les puces de Nvidia tout en étant moins chère. Les puces H100 de Nvidia, dont le prix avoisine les 40 000 dollars, ont conquis une grande partie du marché, et l'entreprise s'efforce de répondre à la demande. Microsoft souhaite également répondre à la demande des développeurs d'IA avec son offre d'exécution de processus d'IA dans le cloud.
Microsoft prévoit de lancer deux puces d'intelligence artificielle (IA) : Maia 100 pour soutenir le développement de grands modèles de langage (LLM), et Cobalt 100 pour les processus informatiques courants. La puce Maia 100 vise à concurrencer les puces Nvidia, tout en étant moins chère. Des tests effectués par Microsoft avec les systèmes d'OpenAI ont donné des résultats impressionnants, accélérant l'apprentissage et l'inférence des modèles. Microsoft souhaite également répondre à la demande des développeurs d'IA avec son offre d'exécution de processus d'IA dans le cloud.
Les experts estiment que Microsoft peut rattraper les leaders du secteur avec ces nouvelles puces, qui sont dotées de 105 milliards de transistors et prennent en charge les types de données 8 bits et les processeurs refroidis par liquide. Microsoft prévoit de partager la conception de son rack unique avec ses partenaires, mais ne divulguera pas la conception des puces. En plus de Maia 100, Microsoft a également annoncé la puce Cobalt 100, concurrente directe des processeurs Intel pour les tâches informatiques générales.
L'intégration de l'IA par Nvidia pour accélérer la fabrication de ses puces représente un progrès technologique majeur. Cependant, l'idée spéculative de la singularité ou du développement d'une conscience au sein de l'IA peut détourner l'attention du véritable progrès technologique. La nécessité cruciale de transparence et de délimitation dans le développement de l'IA doit être soulignée. Il est impératif de trouver un équilibre entre l'optimisation de la production grâce à l'IA et la préservation du contrôle et de la sécurité. Bien que l'utilisation de l'IA par Nvidia soit justifiée, il est essentiel de maintenir un réalisme éclairé et d'évaluer les implications réelles, en évitant les réactions excessives basées sur des scénarios hypothétiques.
Source : Nvidia (1, 2)
Et vous ?
Quel est votre avis sur le sujet ?
Y a-t-il des préoccupations quant à la dépendance excessive de Nvidia à l'égard de l'IA dans le processus de conception ?
Quels seraient les impacts potentiels sur l'emploi liés à l'automatisation accrue de la conception de puces grâce à l'IA chez Nvidia ?
Voir aussi :
Nvidia serait le principal investisseur dans les entreprises d'IA, avec plus de deux douzaines d'investissements dans ce domaine, au cours d'une année
La Chine affirme avoir mis au point une puce d'IA plus puissante que celle de l'américain Nvidia, l'ACCEL chinois serait 3000 fois plus efficace que la Nvidia A100
Nvidia dévoile une nouvelle puce d'IA, le NVIDIA DGX GH200, et affirme que les coûts d'exploitation des LLM vont « baisser de manière significative »
Nvidia utilise l'IA pour produire plus rapidement ses puces d'IA, suscitant des inquiétudes sur une dépendance excessive à l'égard de l'IA
Dans le processus de conception
Nvidia utilise l'IA pour produire plus rapidement ses puces d'IA, suscitant des inquiétudes sur une dépendance excessive à l'égard de l'IA
Dans le processus de conception
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !