
Sam Altman veut lancer OpenAI sur le marché de la conception et de la fabrication de puces d'IA et chercherait des partenaires. Des personnes au fait du projet rapportent qu'Altman est en pourparlers avec certaines des personnes les plus riches et les plus influentes du Moyen-Orient, dont le cheikh Tahnoon bin Zayed al-Nahyan, conseiller à la sécurité nationale des Émirats arabes unis et président de plusieurs fonds d'investissement publics et sociétés d'IA. Altman recherche des fonds pour son nouveau projet ambitieux de développement et de fabrication de puces conçues pour l'entraînement et la construction de systèmes d'IA.
En plus des investisseurs, Altman discuterait également d'un éventuel partenariat avec le fabricant taïwanais de puces TSMC (Taiwan Semiconductor Manufacturing Company). (TSMC est le plus grand fabricant de micropuces sous contrat au monde. Il contrôle plus de la moitié de la production mondiale de puces utilisées dans tous les domaines, des smartphones aux missiles.) Mais ni OpenAI ni TSMC n'ont commenté l'affaire, et Sheikh Tahnoon n'a pas été en mesure de le faire. Bloomberg a d'abord rapporté que Altman était à la recherche d'une entreprise de fabrication de puces avec des investisseurs du Moyen-Orient.
Selon des personnes au fait des plans d'Altman, il aurait approché plusieurs banques d'investissement, notamment SoftBank, basée au Japon, pour l'aider à concrétiser ce projet. Pour rappel, le cheikh Tahnoon préside l'Abu Dhabi Investment Authority et de l'ADQ (une entité d'investissement de l'État), l'International Holding Company, un conglomérat tentaculaire qui est rapidement devenu la plus grande société cotée des Émirats arabes unis, et G42, une ambitieuse société d'IA qui a conclu des partenariats avec Microsoft et OpenAI. Mais aucune de ces entreprises n'a ni confirmé ni infirmé la rumeur sur les pourparlers.
OpenAI, Meta, Microsoft, Amazon et d'autres entreprises qui développent des outils d'IA à la pointe de la technologie sont toutes dépendantes des puces d'IA de Nvidia. La situation est telle que Nvidia a du mal à faire face à la demande pour ses accélérateurs d'IA H100 destinés au développement de l'IA et au calcul haute performance (HPC). Il existe des alternatives aux puces d'IA de Nvidia, mais avec des performances inférieures. Les accélérateurs d'IA de Nvidia ont été l'épine dorsale de la révolution de l'IA, car ils offrent des performances et une efficacité élevées pour l'exécution de réseaux neuronaux à grande échelle.
Le mois dernier, Omdia a rapporté que la demande pour ces processeurs d'IA de Nvidia est si élevée que le délai d'approvisionnement des serveurs basés sur le H100 est de 36 à 52 semaines. S'il n'y a pas suffisamment de puces pour former et faire fonctionner les modèles afin de répondre à la demande des utilisateurs, les services à distance peuvent souffrir de ralentissements, de rationnement ou d'un déploiement limité, ce qui n'est pas une bonne expérience pour le client. Ceux qui espèrent utiliser la technologie sur leur propre infrastructure risquent de ne pas pouvoir se procurer facilement les pièces dont ils ont besoin.
L'analyse indique que Meta et Microsoft sont les plus gros acheteurs, ces entreprises ayant acheté chacune jusqu'à 150 000 GPU H100. C'est nettement supérieur au nombre de puces d'IA H100 achetées par Google, Amazon, Oracle et Tencent (50 000 chacun). Selon certaines sources, Meta vient d'indiquer qu'il veut 350 000 accélérateurs Nvidia d'ici la fin de l'année pour mener à bien ses travaux sur l'AGI. Les entreprises luttent pour avoir ces processeurs d'IA. Selon les analystes, l'IA restera d'actualité en 2024, mais l'insuffisance de l'approvisionnement en silicium risque d'entraver les déploiements à grande échelle.
Altman espère défier Nvidia, qui domine le marché des puces d'IA avec une valeur de marché de près de 1 500 milliards de dollars. Il veut être le capitaine de sa propre usine de fabrication de puces d'IA. Selon les analystes, avec pour objectif de créer des usines de conception et de fabrication de puces d'IA pour piloter la prochaine génération de modèles d'IA d'OpenAI, Altman vise définitivement les étoiles. L'on ignore combien Altman cherche à lever, mais la conception et la fabrication de puces sont très complexes et très coûteuses et tenter de concurrencer Nvidia, risque de saigner plusieurs dizaines de milliards de dollars.
Le financement d'un seul projet d'usine - sans parler d'un réseau d'installations - ne sera ni facile ni bon marché. Une seule usine de fabrication de puces peut coûter entre 10 et 20 milliards de dollars, en fonction de l'emplacement et de la capacité prévue. Les deux usines d'Intel en Arizona devraient coûter 15 milliards de dollars chacune, tandis que TSMC s'attend à ce que son projet d'usine, situé à proximité, s'élève à environ 40 milliards de dollars. De plus, la construction de ces installations peut durer de quatre à cinq ans, à condition que certains problèmes, comme la pénurie de main-d'œuvre, n'entraînent pas des retards.
D'autres sources rapportent qu'il ne semble pas qu'OpenAI cherche à entrer dans le jeu des fonderies. Il semble plutôt que le plan consiste à canaliser les fonds collectés vers des fabricants de puces de pointe tels que TSMC, Samsung et, éventuellement, Intel. En fait, OpenAI rassemblerait des milliards pour que ces géants de la fabrication produisent des pièces pour l'IA. TSMC serait le principal candidat, car les GPU et les accélérateurs d'IA de Nvidia, AMD et Intel sont tous fabriqués dans les usines de l'entreprise taïwanaise. (Nvidia a déjà utilisé les installations de Samsung pour certaines de ses pièces de dernière génération.)
Nvidia est un acteur établi et ses processeurs d'IA sont aujourd'hui plus convoités que jamais. Bien que Nvidia soit de plus en plus talonné par son concurrent AMD sur le marché des puces d'IA, il détient toujours une grosse part du marché des processeurs d'IA. AMD a lancé le mois dernier un nouvel accélérateur d'IA appelé "Instinct MI300X". Lisa Su, PDG d'AMD, et ses collègues ont présenté les prouesses du MI300X en le comparant aux performances d'inférence du H100 de Nvidia à l'aide de Llama 2. La puce d'AMD devrait coûter moins cher que les produits concurrents de Nvidia, dont...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.