
il est cinq fois plus grand que ChatGPT qui compte 175 milliards de paramètres
Intel s'invite dans la course à l'IA et a annoncé lundi le lancement futur d'une série de grands modèles de langage (LLM) regroupés sous le nom de "Aurora GenAI". Le projet d'Intel vise à exploiter tout le potentiel du nouveau supercalculateur Aurora de l'entreprise et aura 1 000 milliards de paramètres. C'est plus de 5 fois le nombre de paramètres de ChatGPT (175 milliards). Mais contrairement à ChatGPT, Aurora GenAI est exclusivement conçu pour la communauté de la recherche scientifique afin d'aider les chercheurs dans les domaines tels que la biologie des systèmes, la recherche sur le cancer, la science du climat, la chimie des polymères et matériaux, etc.
ChatGPT a donné une nouvelle importance aux chatbots en s'appuyant sur les prouesses remarquables réalisées dans le domaine de l'IA au cours des dernières années. Le chatbot d'IA d'OpenAI a connu un succès sans précédent pour un tel outil et a mis une pression énorme sur les acteurs établis dans le domaine, notamment Google, Meta, Baidu, etc. Poursuivant OpenAI, les géants mondiaux de la technologie ont annoncé la façon dont ils comptaient mettre en œuvre une IA de type ChatGPT dans leurs plateformes et applications de premier plan. L'équipementier Intel est la dernière entreprise en date à s'engager sur cette voie avec son projet Aurora GenAI.
Le projet Aurora GenAI est une collaboration entre le laboratoire national d'Argonne (Argonne National Laboratory) des États-Unis, Intel et HPE. Le but annoncé est de créer une série d'IA génératives pour la communauté de la recherche scientifique. « Le projet vise à exploiter tout le potentiel du supercalculateur Aurora pour produire une ressource qui peut être utilisée pour la science en aval dans les laboratoires du ministère de l'Énergie et en collaboration avec d'autres », a déclaré Rick Stevens, directeur associé du laboratoire national d'Argonne. Intel a fait cette annonce en marge de la présentation de son nouveau supercalculateur Aurora.
Avec une performance de plus de 2 exaflops, le supercalculateur Aurora piloté par Intel devrait battre le supercalculateur Frontier piloté par AMD, actuellement le plus rapide au monde, et prendre la tête de la liste Top 500 des supercalculateurs les plus rapides. Mais en raison des retards constants d'Intel dans la livraison du matériel, Aurora n'a pas encore soumis de référence au comité du Top 500, et ne figure donc pas encore sur la liste. Intel a annoncé lundi qu'il avait livré plus de 10 000 lames opérationnelles pour le supercalculateur Aurora, tout en précisant qu'il ne s'agissait pas des lames réelles nécessaires pour un déploiement complet.
En ce qui concerne le projet Aurora GenAI, Intel a annoncé que ces modèles d'IA générative pour la science seront entraînés sur des textes généraux, des codes, des textes scientifiques et des données scientifiques structurées provenant de la biologie, de la chimie, de la science des matériaux, de la physique, de la médecine et bien d'autres sources. Les modèles qui en résulteront (avec jusqu'à 1 000 milliards de paramètres) seront utilisés dans diverses applications scientifiques, de la conception de molécules et de matériaux à la synthèse de connaissances provenant de millions de sources pour suggérer des expériences nouvelles et intéressantes.
Ils sont destinés aux professionnels de la biologie des systèmes, la chimie des polymères et des matériaux énergétiques, la science du climat et la cosmologie. Le projet Aurora GenAI vise également à accélérer l'identification des processus biologiques liés au cancer et à d'autres maladies et suggérer des cibles pour la conception de médicaments. « Argonne est le fer de lance d'une collaboration internationale pour faire avancer le projet, qui comprend Intel, HPE, des laboratoires du ministère de l'Énergie, des universités américaines et internationales, des organisations à but non lucratif et des partenaires internationaux, tels que RIKEN », explique Intel.
En attendant, Intel et le laboratoire national d'Argonne ont présenté les progrès de l'installation, les spécifications du système et les premiers résultats de performance d'Aurora :
- Intel a achevé la livraison physique de plus de 10 000 lames pour le supercalculateur Aurora ;
- le système complet d'Aurora, construit à partir de supercalculateurs HPE Cray EX, comprendra 63 744 GPU, 21 248 CPU et 1 024 nœuds de stockage DAOS. Il utilisera également le réseau Ethernet haute performance HPE Slingshot ;
- les premiers résultats montrent des performances de premier plan sur des charges de travail scientifiques et techniques réelles, avec des performances jusqu'à deux fois supérieures à celles des GPU AMD MI250, une amélioration de 20 % par rapport à H100 sur l'application de mécanique quantique QMCPACK, et une mise à l'échelle quasi linéaire jusqu'à des centaines de nœuds.
Intel n'a pas d'autres détails sur les modèles Aurora GenAI en dehors du public cible et du nombre de paramètres, qui est de 1 000 milliards de paramètres. Ce chiffre est 5,7 supérieurs au nombre de paramètres de ChatGPT (qui est la version grand public du modèle de langage GPT-3.5 d'OpenAI). À l'heure actuelle, il est difficile de dire exactement ce que cela signifie pour les modèles Aurora GenAI. En outre, l'on ignore également si Aurora GenAI sera ouvert à tous les utilisateurs à sa sortie ou s'il sera disponible uniquement pour des institutions telles que les universités et les laboratoires où l'on parle beaucoup de science.
Ce qui est certain en revanche, c'est qu'Intel se lance sur marché qui est devenu hautement concurrentiel du jour au lendemain en raison du succès presque spontané de ChatGPT. La majorité des grandes entreprises de technologie au monde ont lancé ou prévoient de lancer un LLM. On peut citer les entreprises telles que :
Microsoft
Microsoft est allé le plus loin dans la diffusion de l'IA générative auprès des consommateurs et s'est engagé à injecter des milliards de dollars dans OpenAI. L'entreprise teste activement GPT-4 dans son moteur de recherche Bing amélioré, et prévoit d'ajouter l'outil à la barre des tâches de Windows 11, facilement accessible. Microsoft prévoit également d'ajouter GPT-4 à sa suite Office, y compris Word, ainsi qu'au navigateur Edge. Ces déploiements garantissent une exposition maximale à la technologie, malgré les controverses concernant l'aptitude de l'IA à être utilisée par le grand public.
Sentant la pression exercée par Microsoft, Google a dévoilé en février Bard, un robot conversationnel de type ChatGPT qui s'appuie sur son propre modèle de langage appelé LaMDA. Le géant californien a déclaré qu'il travaillait avec une version à plus petite échelle de LaMDA pour faciliter les tests et "s'assurer que les réponses de Bard répondent à un haut niveau de qualité", dans une allusion voilée à la poussée plus agressive de Microsoft. Google a déclaré que des fonctions pilotées par l'IA seraient bientôt déployées dans son moteur de recherche, qui domine le monde entier, bien qu'il soit resté vague sur la manière et le moment exacts.
« Il est essentiel que nous proposions au monde des expériences basées sur ces modèles de manière audacieuse et responsable », a déclaré le PDG Sundar Pichai. Chez YouTube, propriété de Google, le nouveau PDG Neal Mohan a déclaré que l'IA générative serait bientôt proposée aux créateurs pour "développer la narration et augmenter leur valeur de production". Mais il a ajouté que YouTube prend le temps de développer ces fonctionnalités avec des garde-fous réfléchis.
Meta
Meta a jusqu'à présent adopté une approche plus prudente, du moins publiquement, en ce qui concerne l'IA de type ChatGPT pour ses principales plateformes de médias sociaux...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.