Voici les principales annonces qui ont déjà été faites.
NVIDIA lance DGX Cloud, permettant à chaque entreprise d'accéder instantanément à un supercalculateur d'IA à partir d'un navigateur
NVIDIA a lancé NVIDIA DGX Cloud, un service de supercalcul d'IA qui donne aux entreprises un accès immédiat à l'infrastructure et aux logiciels nécessaires pour former des modèles avancés pour l'IA générative et d'autres applications révolutionnaires. DGX Cloud fournit des clusters dédiés de supercalcul NVIDIA DGX AI, associés au logiciel NVIDIA AI. Le service permet à chaque entreprise d'accéder à son propre supercalculateur IA à l'aide d'un simple navigateur Web, éliminant ainsi la complexité de l'acquisition, du déploiement et de la gestion de l'infrastructure sur site.
Les entreprises louent des clusters DGX Cloud sur une base mensuelle, ce qui leur permet de faire évoluer rapidement et facilement le développement de charges de travail de formation volumineuses et multinœuds sans avoir à attendre des ressources informatiques accélérées qui sont souvent très demandées.
« Nous sommes au moment iPhone de l'IA. Les startups se précipitent pour créer des produits et des modèles commerciaux perturbateurs, et les opérateurs historiques cherchent à réagir », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « DGX Cloud offre aux clients un accès instantané au supercalcul NVIDIA AI dans des clouds à l'échelle mondiale ».
NVIDIA s'associe aux principaux fournisseurs de services cloud pour héberger l'infrastructure DGX Cloud, à commencer par Oracle Cloud Infrastructure (OCI). Son OCI Supercluster fournit un réseau RDMA spécialement conçu, un calcul bare-metal et un stockage local et en bloc hautes performances pouvant évoluer vers des superclusters de plus de 32 000 GPU.
Microsoft Azure devrait commencer à héberger DGX Cloud au prochain trimestre, et le service sera bientôt étendu à Google Cloud et plus encore.
Quelques entreprises qui s'en servent déjà
Amgen, l'une des principales sociétés de biotechnologie au monde, le leader des technologies d'assurance CCC Intelligent Solutions (CCC) et le fournisseur de plates-formes commerciales numériques ServiceNow sont parmi les premiers pionniers de l'IA à utiliser DGX Cloud.
Amgen utilise DGX Cloud avec le logiciel de grand modèle de langage NVIDIA BioNeMo pour accélérer la découverte de médicaments, y compris le logiciel NVIDIA AI Enterprise, qui comprend les bibliothèques d'accélération de la science des données NVIDIA RAPIDS.
« Avec NVIDIA DGX Cloud et NVIDIA BioNeMo, nos chercheurs peuvent se concentrer sur une biologie plus profonde au lieu d'avoir à gérer une infrastructure d'IA et à mettre en place une ingénierie ML », a déclaré Peter Grandsard, directeur exécutif de la recherche, Biologics Therapeutic Discovery, Center for Research Acceleration by Digital Innovation chez Amgen. « Les puissantes capacités de calcul et multinœuds de DGX Cloud nous ont permis d'obtenir une formation 3 fois plus rapide des LLM protéiques avec BioNeMo et une analyse post-formation jusqu'à 100 fois plus rapide avec NVIDIA RAPIDS par rapport aux plates-formes alternatives ».
CCC, une plate-forme cloud de premier plan pour l'économie de l'assurance IARD, utilise DGX Cloud pour accélérer et faire évoluer le développement et la formation de ses modèles d'IA. Ces modèles alimentent les solutions innovantes de résolution des réclamations automobiles de l'entreprise, contribuant à accélérer l'automatisation intelligente de l'industrie et à améliorer l'expérience des réclamations pour des millions d'utilisateurs professionnels et leurs consommateurs chaque jour.
ServiceNow utilise DGX Cloud avec des supercalculateurs NVIDIA DGX sur site pour un supercalcul d'IA flexible et évolutif dans le cloud hybride qui aide à alimenter sa recherche en IA sur de grands modèles de langage, la génération de code et l'analyse causale. ServiceNow cogère également le projet BigCode, une initiative responsable d'IA générative en science ouverte, qui est formée sur le framework Megatron-LM de NVIDIA.
NVIDIA lance des plates-formes d'inférence pour les grands modèles de langage et les charges de travail d'IA générative
NVIDIA a annoncé que Google Cloud intègre la nouvelle GPU L4 et Vertex AI pour accélérer le travail des entreprises qui créent un nombre en croissance rapide d'applications d'IA génératives.
Google Cloud, avec son annonce des machines virtuelles G2 disponibles en avant-première privée, est le premier fournisseur de services cloud à proposer la GPU L4 Tensor Core de NVIDIA. De plus, les GPU L4 seront disponibles avec une prise en charge optimisée sur Vertex AI, qui prend désormais en charge la construction, le réglage et le déploiement de grands modèles d'IA génératifs.
Les développeurs peuvent accéder aux dernières technologies de pointe disponibles pour les aider à mettre en place de nouvelles applications et à les exécuter rapidement et à moindre coût. La GPU NVIDIA L4 est une GPU universelle pour chaque charge de travail, avec des capacités vidéo AI améliorées qui peuvent fournir des performances vidéo alimentées par l'IA 120 fois plus que les processeurs, combinées à une efficacité énergétique 99 % supérieure.
« L'intérêt croissant pour l'IA générative incite une vague d'entreprises à se tourner vers l'informatique basée sur le cloud pour soutenir leurs modèles commerciaux », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Nous travaillons avec Google Cloud pour nous assurer que les fonctionnalités dont ils ont besoin sont facilement disponibles et capables d'alimenter les incroyables nouveaux outils et applications qu'ils vont créer ».
« L'IA générative représente une nouvelle ère de l'informatique, qui exige la vitesse, l'évolutivité et la fiabilité que nous offrons sur Google Cloud », a déclaré Amin Vahdat, vice-président de l'infrastructure des systèmes et des services chez Google Cloud. « Alors que nos clients commencent à explorer les possibilités de l'IA générative, nous sommes fiers de leur proposer la dernière innovation GPU L4 de NVIDIA dans le cadre de notre portefeuille Compute Engine optimisé pour la charge de travail ».
Aider les nouvelles applications d'IA génératives à prendre vie
Google Cloud fournit l'infrastructure à une grande variété d'organisations proposant des applications d'IA génératives, dont beaucoup sont conçues pour aider les professionnels à faire leur travail mieux et plus rapidement. L'inférence rapide est essentielle pour exécuter avec succès leurs applications.
L'IA générative génère également un certain nombre de nouvelles applications qui aident les gens à se connecter et à s'amuser. WOMBO, qui propose une application d'art numérique alimentée par l'IA appelée Dream, a eu un accès anticipé à la plate-forme d'inférence L4 de NVIDIA sur Google Cloud.
« WOMBO s'appuie sur la dernière technologie d'intelligence artificielle pour créer des œuvres d'art numériques immersives à partir des invites des utilisateurs, leur permettant de créer des œuvres d'art réalistes de haute qualité dans n'importe quel style avec juste une idée », a déclaré Ben-Zion Benkhin, PDG de WOMBO. « La plate-forme d'inférence L4 de NVIDIA nous permettra d'offrir une expérience de génération d'images meilleure et plus efficace aux utilisateurs cherchant à créer et à partager des œuvres d'art uniques ».
Descript propose des fonctionnalités d'édition alimentées par l'IA qui permettent aux créateurs de supprimer les mots de remplissage, d'ajouter des légendes et de créer des clips de médias sociaux en quelques clics. Ou ils peuvent utiliser le clonage de voix IA génératif de Descript pour corriger les erreurs audio - même créer des pistes de voix off entières - simplement en tapant.
« Descript utilise NVIDIA TensorRT pour optimiser les modèles afin d'accélérer l'inférence de l'IA », a déclaré Andrew Mason, PDG de Descript. « Il permet aux utilisateurs de remplacer leurs arrière-plans vidéo et d'améliorer leur discours pour produire un contenu de qualité studio, sans le studio ».
NVIDIA met l'IA générative à la portée des entreprises du monde entier avec des services cloud pour la création de grands modèles linguistiques et visuels
Pour accélérer l'adoption de l'IA générative par les entreprises, NVIDIA a annoncé aujourd'hui un ensemble de services cloud qui permettent aux entreprises de créer, d'affiner et d'exploiter de grands modèles de langage personnalisés et des modèles d'IA générative qui sont entraînés avec leurs propres données propriétaires et créés pour leurs tâches spécifiques à un domaine unique. .
Getty Images, Morningstar, Quantiphi et Shutterstock font partie des entreprises qui créeront et utiliseront des modèles, des applications et des services d'IA construits avec les nouveaux services NVIDIA AI Foundations qui couvrent le langage, les images, la vidéo et la 3D.
Les entreprises peuvent utiliser le service de langage NVIDIA NeMo™ et le service d'image, de vidéo et de 3D NVIDIA Picasso pour créer des applications d'IA génératives propriétaires, spécifiques à un domaine, pour le chat intelligent et l'assistance client, la création de contenu professionnel, la simulation numérique, etc. Par ailleurs, NVIDIA a également annoncé aujourd'hui de nouveaux modèles pour le service cloud NVIDIA BioNeMo™ pour la biologie.
« L'IA générative stimule l'adoption rapide de l'IA et réinvente d'innombrables industries », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. "NVIDIA AI Foundations permet aux entreprises de personnaliser les modèles de base avec leurs propres données pour générer les ressources les plus précieuses de l'humanité - l'intelligence et la créativité."
Aider les entreprises à créer des applications d'IA générative personnalisées
Les services NeMo et Picasso fonctionnent sur NVIDIA DGX Cloud, accessible via un navigateur. Les développeurs peuvent utiliser les modèles proposés sur chaque service via de simples interfaces de programmation d'applications (API). Une fois les modèles prêts à être déployés, les entreprises peuvent exécuter des charges de travail d'inférence à grande échelle à l'aide des services cloud NVIDIA AI Foundations.
Chaque service cloud comprend six éléments : des modèles préentraînés, des cadres pour le traitement des données, des bases de données vectorielles et la personnalisation, des moteurs d'inférence optimisés, des API et l'assistance d'experts NVIDIA pour aider les entreprises à ajuster les modèles pour leurs cas d'utilisation personnalisés.
Le service NeMo permet aux entreprises de personnaliser rapidement les modèles de langage de base
Le service cloud NeMo permet aux développeurs de rendre les grands modèles de langage (LLM) plus pertinents pour les entreprises en définissant des domaines d'intérêt, en ajoutant des connaissances spécifiques au domaine et en enseignant des compétences fonctionnelles.
Les modèles de différentes tailles - de 8 milliards à 530 milliards de paramètres - disponibles sur le service sont régulièrement mis à jour avec des données de formation supplémentaires, offrant aux entreprises de larges options pour créer des applications qui s'alignent sur les exigences de l'entreprise en termes de vitesse, de précision et de complexité des tâches.
En utilisant les capacités de récupération d'informations incluses dans le service NeMo, les clients pourront augmenter les LLM avec leurs données exclusives en temps réel. Cela permet aux entreprises de personnaliser des modèles pour alimenter des applications d'IA génératives précises pour l'intelligence du marché, la recherche d'entreprise, les chatbots et le service client, et plus encore.
Morningstar, l'un des principaux fournisseurs d'informations indépendantes sur les investissements, travaille avec NeMo pour rechercher des services de renseignement avancés.
« Les grands modèles de langage nous offrent la possibilité de collecter des données pertinentes à partir de contenus structurés et non structurés très complexes à plus grande échelle tout en donnant la priorité à la qualité et à la vitesse des données », a déclaré Shariq Ahmad, responsable de la technologie de collecte de données chez Morningstar. «Notre cadre de qualité comprend un processus humain dans la boucle qui alimente le réajustement du modèle pour garantir que nous produisons un contenu de plus en plus de haute qualité. Morningstar utilise NeMo dans sa recherche et développement sur la collecte de données sur la façon dont les LLM peuvent analyser et résumer les informations provenant de sources telles que les documents financiers pour extraire rapidement des informations sur le marché.
Quantiphi, une société d'ingénierie numérique axée sur l'IA et l'un des partenaires de prestation de services de NVIDIA, travaille avec NeMo pour créer une solution d'IA générative modulaire. L'offre, appelée baioniq, permettra aux entreprises de créer des LLM personnalisés dotés d'informations à jour pour augmenter la productivité des travailleurs du savoir.
NVIDIA et Microsoft apportent le métavers industriel et l'IA à des centaines de millions d'utilisateurs d'entreprise via Azure Cloud
NVIDIA a annoncé une collaboration avec Microsoft pour fournir à des centaines de millions d'utilisateurs d'entreprise Microsoft un accès à de puissantes ressources de métavers industriel et de supercalcul d'IA via le cloud.
Microsoft Azure hébergera deux nouvelles offres cloud de NVIDIA : NVIDIA Omniverse Cloud, une plate-forme en tant que service donnant un accès instantané à un environnement complet pour concevoir, développer, déployer et gérer des applications métavers industrielles ; et NVIDIA DGX Cloud, un service de supercalcul d'IA qui donne aux entreprises un accès immédiat à l'infrastructure et aux logiciels nécessaires pour former des modèles avancés pour l'IA générative et d'autres applications révolutionnaires.
De plus, les entreprises unissent leurs plates-formes de productivité et de collaboration 3D en connectant les applications Microsoft 365 - telles que Teams, OneDrive et SharePoint - avec NVIDIA Omniverse, une plate-forme pour créer et exploiter des applications métavers industrielles 3D.
Cette collaboration accélérera la capacité des entreprises à numériser leurs opérations, à s'engager dans le métavers industriel et à former des modèles avancés pour l'IA générative et d'autres applications.
« Les plus grandes entreprises du monde s'efforcent de numériser tous les aspects de leur activité et de se réinventer en entreprises de technologie définie par logiciel », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « NVIDIA AI et Omniverse dynamisent la numérisation industrielle. La création de NVIDIA Omniverse Cloud dans Microsoft Azure offre aux clients le meilleur de nos capacités combinées ».
« La prochaine vague informatique est en train de naître, entre les expériences immersives de nouvelle génération et les modèles d'IA fondamentaux avancés, nous voyons l'émergence d'une nouvelle plate-forme informatique », a déclaré Satya Nadella, président-directeur général de Microsoft. « Avec NVIDIA, nous nous concentrons à la fois sur la création de services qui relient les mondes numérique et physique pour automatiser, simuler et prédire chaque processus métier, et sur la mise à disposition du supercalculateur d'IA le plus puissant aux clients du monde entier ».
Avec Omniverse connecté aux jumeaux numériques Azure Cloud Services et à l'Internet des objets, les entreprises peuvent lier les données en temps réel des capteurs du monde physique à leurs répliques numériques. Cela permettra aux entreprises de créer et d'exploiter des jumeaux numériques 3D plus précis, dynamiques et entièrement fonctionnels qui réagissent automatiquement aux changements de leurs environnements physiques. Azure fournit l'infrastructure cloud et les fonctionnalités nécessaires pour déployer des services d'entreprise à grande échelle, y compris la sécurité, l'identité et le stockage.
Une démo keynote GTC développée par Accenture amplifie l'utilité de l'intégration de NVIDIA Omniverse avec Microsoft Teams pour permettre une collaboration 3D en temps réel. S'exécutant sur Omniverse Cloud et tirant parti d'une réunion d'équipe avec partage en direct, la démo d'Accenture montre comment cette intégration peut raccourcir le temps entre la prise de décision, l'action et la rétroaction.
Omniverse Cloud, propulsé par les systèmes informatiques NVIDIA OVX, sera disponible sur Azure au second semestre.
DGX Cloud sera disponible sur Azure à partir du prochain trimestre, offrant aux entreprises des clusters dédiés de supercalcul et de logiciels NVIDIA DGX AI, loués sur une base mensuelle.
AWS et NVIDIA collaborent sur une infrastructure de nouvelle génération pour l'entraînement de grands modèles d'apprentissage automatique et la création d'applications d'IA générative
Amazon Web Services et NVIDIA ont annoncé une collaboration en plusieurs parties axée sur la création de l'infrastructure d'intelligence artificielle (IA) à la demande la plus évolutive au monde, optimisée pour la formation de grands modèles de langage (LLM) de plus en plus complexes et le développement d'applications d'IA génératives.
Le travail conjoint comprend des instances P5 Amazon Elastic Compute Cloud (Amazon EC2) de nouvelle génération alimentées par les GPU NVIDIA H100 Tensor Core et la mise en réseau et l'évolutivité de pointe d'AWS qui fourniront jusqu'à 20 exaFLOPS de performances de calcul pour la construction et la formation. Les instances P5 seront les premières instances basées sur GPU à tirer parti de la mise en réseau Elastic Fabric Adapter (EFA) de deuxième génération d'AWS, qui fournit 3 200 Gbit/s de débit réseau à faible latence et à bande passante élevée, permettant aux clients d'évoluer jusqu'à 20 000 GPU H100 dans EC2 UltraClusters pour un accès à la demande à des performances de classe supercalculateur pour l'IA.
« AWS et NVIDIA collaborent depuis plus de 12 ans pour fournir à la demande des solutions basées sur GPU à grande échelle et rentables pour diverses applications telles que l'IA/ML, les graphiques, les jeux et le HPC », a déclaré Adam Selipsky, PDG d'AWS. « AWS possède une expérience inégalée dans la fourniture d'instances basées sur GPU qui ont repoussé les limites de l'évolutivité à chaque génération successive, avec de nombreux clients faisant évoluer les charges de travail de formation d'apprentissage automatique à plus de 10 000 GPU aujourd'hui. Avec l'EFA de deuxième génération, les clients pourront faire évoluer leurs instances P5 vers plus de 20 000 GPU NVIDIA H100, offrant des capacités de supercalculateur à la demande à des clients allant des startups aux grandes entreprises », a-t-il continué.
« L'informatique accélérée et l'IA sont arrivées, et juste à temps. L'informatique accélérée permet d'accélérer les fonctions pas à pas tout en réduisant les coûts et la puissance alors que les entreprises s'efforcent de faire plus avec moins. L'IA générative a incité les entreprises à réinventer leurs produits et leurs modèles commerciaux et à être le perturbateur et non le perturbé », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « AWS est un partenaire de longue date et a été le premier fournisseur de services cloud à proposer des GPU NVIDIA. Nous sommes ravis de combiner notre expertise, notre échelle et notre portée pour aider les clients à exploiter l'informatique accélérée et l'IA générative afin de saisir les énormes opportunités à venir ».
Autres annonces
En somme, voici les principales annonces qui ont déjà été faites :
- NVIDIA lance DGX Cloud, permettant à chaque entreprise d'accéder instantanément à un supercalculateur d'IA à partir d'un navigateur.
- NVIDIA lance des plates-formes d'inférence pour les grands modèles de langage et les charges de travail d'IA générative.
- NVIDIA met l'IA générative à la portée des entreprises du monde entier avec des services cloud pour la création de grands modèles linguistiques et visuels.
- Shutterstock s'associe à NVIDIA pour créer les bases de l'IA pour les outils génératifs des artistes 3D.
- Adobe et NVIDIA s'associent pour exploiter la puissance de l'IA générative
- NVIDIA et Getty Images accélèrent les médias grâce à l'IA générative
- NVIDIA s'associe à Google Cloud pour les grands modèles de langage et l'inférence générative de l'IA
- NVIDIA et Microsoft apportent le métavers industriel et l'IA à des centaines de millions d'utilisateurs d'entreprise via Azure Cloud
- AWS et NVIDIA collaborent sur une infrastructure de nouvelle génération pour l'entraînement de grands modèles d'apprentissage automatique et la création d'applications d'IA générative
- Oracle Cloud Infrastructure choisit la plate-forme d'accélération de centre de données NVIDIA BlueField
- NVIDIA étend le Omniverse Cloud pour stimuler la numérisation industrielle
- NVIDIA dévoile de grands modèles de langage et un service d'IA générative pour faire progresser la R&D dans les sciences de la vie
Au sujet de la NVIDIA GTC, Jean-Charles Vasnier, Senior Manager Solution Architect a donné la perspective de NVIDIA sur des sujets comme le métavers, l'IA générative, et la voiture autonome.
Suivre la conférence en ligne du 20 au 23 mars
Source : conférence GTC NVIDIA (vidéo dans le texte)
Et vous ?
Quelles sont les annonces qui suscitent le plus votre intérêt ?