IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Joe Tsai, président d'Alibaba, met en garde contre la formation d'une bulle dans la construction de centres de données pour l'IA,
Notant que ces projets sont construits sans que les clients soient identifiés

Le , par Mathis Lucas

34PARTAGES

5  0 
Joe Tsai, président du géant chinois Alibaba, a déclaré qu'il commence à voir le début d'une sorte de bulle dans la construction de centres de données pour l'IA. Il alerte sur le fait que la construction de centres de données pourrait dépasser la demande pour cette technologie et que la précipitation à mettre en place des projets de serveurs se fait sans prendre pleinement en compte les clients. Il est sceptique quant aux rendements des investissements massifs dans l'IA et a remis en cause la nécessité du projet américain Stargate de 500 milliards de dollars. De plus en plus d'experts alertent sur les désastres qui pourraient découler de l'éclatement de ces bulles.

Joe Tsai relève des incohérences dans les investissements massifs dans l'IA

Alibaba s'est engagé à dépenser plus de 52 milliards de dollars pour le développement de l'IA au cours des trois prochaines années. Toutefois, le président d'Alibaba, Joe Tsai, se montre prudent sur la question. Il a laissé entendre que les entreprises engagées dans la course à l'IA devraient faire des investissements contrôlés en matière de centres de données, au risque de se retrouver à terme avec une offre d'infrastructure nettement supérieure à la demande.

Joe Tsai a accordé une interview à Bloomberg lors du HSBC Global Investment Summit qui s'est tenu le 25 mars 2025 à Hong Kong. Lors de l'interview, Joe Tsai a averti que le rythme actuel de construction de centres de données pourrait dépasser la demande initiale de services pilotés par l'IA. Joe Tsai a déclaré qu'une bulle semble se former dans la construction de centres de données et a mis en garde contre les conséquences dévastatrices de son éclatement.


« Je commence à voir le début d'une sorte de bulle. Je commence à m'inquiéter lorsque les gens construisent des centres de données sur mesure. Il y a un certain nombre de personnes qui se présentent, des fonds qui sortent, pour lever des milliards ou des millions de capitaux », a déclaré Joe Tsai.

La ruée des Big Tech, des fonds d'investissement et d'autres entités pour ériger des centres de données des États-Unis à l'Asie inquiète Joe Tsai. Selon lui, ces projets sont construits à l'aveugle. Joe Tsai ajoute que bon nombre de ces projets sont construits sans que les clients soient clairement identifiés.

Les entreprises continuent à injecter des dizaines de milliards de dollars dans la construction d'énormes centres de données de plus en plus gourmands en énergie pour répondre aux demandes de grands modèles d'IA. Personne ne sait si le secteur va continuer à croître ou si le réveil sera brutal. Mais ce qui est frappant, c'est que même les patrons de la Tech commencent à craindre le fait que les dépenses massives pourraient s'effondrer sous leur propre poids.

La demande atone pourrait avoir du mal à suivre l'augmentation rapide de l'offre, une équation déséquilibrée qui fait paniquer les dirigeants. Joe Tsai a déclaré qu'il est toujours stupéfié par les chiffres qui sont annoncés régulièrement aux États-Unis en matière d'investissement dans l'IA.

Joe Tsai remet en question la nécessité du projet Stargate de 500 milliards

L'avertissement de Joe Tsai concernant les dépenses en matière d'IA intervient alors que les Big Tech prévoient de dépenser des dizaines de milliards de dollars chacune pour le développement et l'infrastructure de l'IA cette année. Ensemble, Meta, Microsoft, Alphabet (la société mère de Google) et Amazon pourraient consacrer jusqu'à 320 milliards de dollars à l'IA. Les engagements en matière d'investissement aux États-Unis sont en effet les plus importants.

Peu après son investiture, le président américain Donald Trump a annoncé un énorme projet d'infrastructure d'IA, baptisé Stargate, de 500 milliards de dollars. Il s'agit d'une coentreprise entre OpenAI, SoftBank, le géant de la technologie Oracle et le fonds souverain MGX, géré par l'État d'Abou Dhabi.

Le premier complexe de centres de données du projet Stargate, situé dans la ville texane d'Abilene, aurait suffisamment d'espace pour accueillir jusqu'à 400 000 puces d'IA de Nvidia, ce qui en ferait l'un des plus grands clusters connus de puissance de calcul d'IA lorsqu'il sera achevé d'ici la mi-2026.

Entre-temps, Microsoft prévoit d'investir jusqu'à 80 milliards de dollars dans l'infrastructure des centres de données d'IA en 2025, Amazon prévoit d'investir 100 milliards de dollars, Google va investir 75 milliards de dollars, et Meta prévoit d'investir entre 60 et 65 milliards de dollars. Ces entreprises envisagent notamment d'acquérir des centaines de milliers de GPU Nvidia. Toutefois, selon Joe Tsai, il reste à voir si ce type de dépenses est réellement justifié.

« Les gens parlent, littéralement, de 500 milliards de dollars, de plusieurs centaines de milliards de dollars. Je ne pense pas que cela soit tout à fait nécessaire. Je pense que, d'une certaine manière, les gens investissent avant la demande qu'ils constatent aujourd'hui, mais ils prévoient une demande beaucoup plus importante », a ajouté Joe Tsai. D'après le président d'Alibaba, ces investissements massifs pourraient être une mauvaise idée à long terme.

Les actions d'Alibaba ont chuté de près de 4 % en réaction à cette nouvelle. Wall Street a commencé à remettre en question ces dépenses, notamment après que la startup chinoise DeepSeek a publié son modèle R1, qui a égalé les performances du modèle phare o1 d'OpenAI, avec un coût inférieur de 95 %.

Le manque persistant d'applications pratiques de l'IA dans le monde réel

Dans une analyste publiée récemment, Bryan McMahon, chercheur indépendant et écrivain spécialisé dans l'IA et l'industrie technologique, a mis en contre les risques liés à la bulle spéculative qui s'est formée autour de l'IA générative au cours de ces dernières années. Bryan McMahon a déclaré que l'éclatement de la bulle pourrait anéantir les sociétés de capital-risque de la Silicon Valley et provoquer la chute des marchés publics, affectant tout le monde.

L'un des plus grands signaux d'alerte jusqu'à présent a peut-être été l'émergence de DeepSeek-R1, qui a laissé la Silicon Valley dans l'embarras. La publication de DeepSeek-R1 a déclenché une hécatombe à Wall Street, effaçant plus de 15 % (soit 600 milliards de dollars) de la capitalisation de Nvidia. Les investisseurs effrayés se sont notamment demandé s'ils n'avaient pas largement surpayé des entreprises telles qu'OpenAI et Microsoft pendant des années.

Ce mois-ci, Alibaba a publié son modèle QwQ-32B qui, selon l'entreprise, peut égaler les performances de DeepSeek-R1, avec des exigences de calcul encore plus faibles. Depuis, Tencent a déclaré qu'il ralentirait son déploiement de GPU, bien qu'il prévoie toujours un investissement de l'ordre de 10 % de son chiffre d'affaires. Les recettes de l'exercice 2024 s'élevaient à 91,1 milliards de dollars, soit une augmentation de 8 % par rapport à l'année précédente.

Les critiques ont également souligné le manque persistant d'applications pratiques de l'IA dans le monde réel. Selon Jim Covello, responsable de la recherche sur les actions mondiales chez Goldman Sachs, contrairement à Internet, l'IA générative ne parvient pas à résoudre des problèmes commerciaux complexes à un coût inférieur à ce qui est disponible aujourd'hui. Malgré cela, les géants de la Tech continuent d'y déverser des milliards de dollars.

Une étude réalisée en 2024 par Uplevel Data Labs a suivi 800 ingénieurs logiciels utilisant Copilot sur GitHub et n'a constaté aucune augmentation mesurable de la productivité dans les tâches de codage, bien que ce cas d'utilisation soit celui qui est le plus mis en avant par les entreprises spécialisées dans l'IA.

En outre, les racks de GPU et ces centres de données nécessaires au développement de l'IA ont besoin d'énergie, et l'industrie de l'énergie se lance également dans une frénésie d'investissement unique en son genre pour suivre le rythme. Il est difficile de se faire une idée de l'ampleur des centres de données prévus pour alimenter l'IA générative. Oracle a annoncé qu'il a l'intention de construire un centre de données de l'ordre du gigawatt uniquement pour l'IA.

La crainte que les rendements ne soient pas à la hauteur des attentes

En février dernier, les analystes de TD Cowen ont cité des signes indiquant...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 27/03/2025 à 17:25
Enfin une réflexion simple et pleine de bon sens.
0  0 
Avatar de nhugodot
Membre habitué https://www.developpez.com
Le 30/03/2025 à 0:46
2 chose différencient fondamentalement l'IA de l'informatique classique:
1) le logiciel d'optimise: au lieu de voir des OS et des Office et autres ERP devenir obèses, on optimise les LLM qui deviennent plus petits pour une cible donnée et non une solution a tout faire mais mal et obese. On n'est quand prémices de cette ère et comme ENIAC devenu mainframe puis mini puis PC puis nos smartphones, les besoins surtout énergétiques et en surface au sol vont s'amenuiser.
2) l'architecture des puces commence tout juste a être 'IA' native: Groq ou Cerebras par exemple sont bien plus optimisés pour l'IA que les nVidia. Et idem ça ne fait que commencer.

Ajoutez que c'est ouvert et non fermé à un acteur (ARM) ou deux (x86 Intel ou AMD), et que la Chine entrera dans la bataille,...et qu'en fin les IA elle-mêmes vont aider à optimiser électronique et logiciel (elle sait le faire en 6 heures là où il faut 6 mois aux ingénieurs !) et on a la recette d'un big crunch...

Enfin, entraîner une IA et puis ''fini on infère '' est stupide. Elle doit s'entraîner constamment sur vos problématiques quotidiennes (pro ou perso), après la première ''culture générale ' acquise: donc je parie sur le edge, l'IA locale, embarquée , ou au moins sur votre cloud pour bénéficier en sus de l'entraînement quotidien des autres clients de votre solution (Salesforce etc.)...

Le juste milieu...?
0  0