IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« D'ici à 2031, la capacité de calcul IA ajoutée chaque année dans l'espace dépassera le total cumulé sur Terre », affirme Elon Musk,
Mais ce calendrier est jugé irréaliste et l'idée suscite le scepticisme

Le , par Mathis Lucas

5PARTAGES

4  0 
Elon Musk veut mettre en orbite un million de satellites destinés à des centres de données. Il a déclaré que l'espace est la clé de voûte énergétique du progrès de l'IA : une source quasi illimitée et à bas coût pour soutenir sa croissance. Dans une sortie récente, Elon Musk a déclaré qu'au cours des 36 prochains mois, l'endroit le moins cher pour déployer l'IA sera l'espace. Il a prédit que d'ici à 2031, la capacité de calcul ajoutée chaque année dans l’espace dépassera le total cumulé sur Terre, bousculant ainsi le marché des centres de données terrestres, estimé à 1 000 milliards de dollars. Mais ce calendrier est considéré comme une prédiction audacieuse d'Elon Musk.

Auparavant, lorsque l'industrie parlait du goulot d'étranglement de la puissance de calcul, elle se concentrait sur la capacité de production des puces. Mais Elon Musk a souligné que ce qui limite réellement le développement à grande échelle de l'IA, ce ne sont pas les GPU, mais l'électricité. Pour lancer le cluster Colossus, il a dû construire une centrale électrique à travers plusieurs États et xAI a même envisagé de fabriquer lui-même les composants clés.

Le cluster Colossus 2 est équipé de 330 000 puces GB300. D'après Elon Musk, pour les faire fonctionner toutes, y compris les équipements réseau, les processeurs, le stockage, les systèmes de refroidissement et l'alimentation de secours, une capacité totale de production d'électricité de 1 gigawatt est nécessaire.

La capacité de production de puces s'améliore, mais l'approvisionnement en électricité stagne ou évolue très peu. Selon Elon Musk, « la solution ne se trouve pas sur Terre, mais dans l'espace ». Dans un épisode du podcast Cheeky Pint animé par Patrick Collison, cofondateur de Stripe, Elon Musk a exposé ses arguments en faveur de la migration de l'informatique vers l'espace. « Il est plus difficile de se développer au sol que dans l'espace, a-t-il déclaré.

Elon Musk a déclaré que l'énergie solaire spatiale présente deux avantages : « elle fonctionne à pleine puissance 24H/24, sans nuages ni atmosphère pour bloquer la lumière du soleil », ce qui augmente l'intensité lumineuse de 30 %. Et elle ne nécessite pas de batteries. « Un panneau solaire donné vous fournira environ cinq fois plus d'énergie dans l'espace qu'au sol, il est donc en réalité beaucoup moins coûteux de le faire dans l'espace », a-t-il ajouté.

Elon Musk veut plus de puissance de calcul en orbite que sur Terre

Elon Musk a poursuivi : « les panneaux solaires chinois coûtent déjà seulement 0,25 dollar par watt. Dans l'espace, le rendement énergétique est cinq fois supérieur à celui au sol, et le coût des batteries est réduit. Au total, le coût par kilowattheure est dix fois moins élevé qu'au sol ». Selon lui, il n'y a pas de cycles d'autorisation, de goulots d'étranglement au niveau des équipements, de défis en matière de coordination du réseau ou de refroidissement.


Quand cela pourra-t-il se réaliser ? Elon Musk a déclaré que d'ici à 36 mois, l'espace deviendra l'endroit le moins cher pour déployer l'IA. C'est la première étape. Dans cinq ans, la puissance de calcul d'IA placée en orbite chaque année dépassera le total cumulé de toute la puissance de calcul sur Terre. À partir de là, l'espace deviendra le principal champ de bataille pour la concurrence en matière de puissance de calcul pour cette technologie en plein essor.

SpaceX veut construire une constellation d'un million de satellites pour le calcul. Avec l'approbation probable de la FCC et un calendrier prévoyant une mise en service en 2028, la question n'est pas de savoir si Elon Musk est sérieux, mais ce pari est réaliste. Il prévoit que d'ici à cinq ans, l'augmentation annuelle de la puissance de calcul spatiale atteindra des centaines de gigawatts. Qu'est-ce que cela signifie ? Prenons l'exemple de 100 gigawatts.

  • cela nécessite 100 millions de puces (en supposant que chaque puce consomme 1 kilowatt) ;
  • cela nécessite des panneaux solaires et des radiateurs correspondants ;
  • cela nécessite 10 000 lancements de Starship (calculés sur la base d'une charge utile de 100 à 150 tonnes à chaque fois).


Pour illustrer : la consommation moyenne d'électricité aux États-Unis est de 500 gigawatts. Lancer 200 gigawatts dans l'espace par an équivaut à ajouter la consommation totale d'électricité des États-Unis tous les deux ans et demi. Elon Musk a déclaré que SpaceX se préparait à effectuer 10 000 à 30 000 lancements par an, et que cette capacité de transport pouvait prendre en charge une augmentation annuelle de plusieurs centaines de gigawatts.

Le raisonnement d'Elon Musk souffre en effet de plusieurs limites

L'affirmation d'Elon Musk concernant l'efficacité solaire est techniquement exacte : sans aucune interférence atmosphérique et avec une exposition au soleil 24 heures sur 24 et 7 jours sur 7, les panneaux solaires orbitaux génèrent effectivement beaucoup plus d'énergie. Mais Dwarkesh Patel, également invité sur le podcast, a contesté le raisonnement logique qui consiste à passer de « plus d'énergie par panneau » à « fonctionnement global moins coûteux ».

Le milliardaire a pris un grand raccourci qui laisser de côté de nombreux défis à relever. L'énergie n'est qu'un élément parmi d'autres dans l'économie des centres de données, et l'énergie solaire n'est qu'un moyen parmi d'autres de la produire. De plus, le coût du lancement du matériel en orbite, de son entretien dans l'environnement spatial hostile et du remplacement des composants défectueux pourrait réduire à néant les économies d'énergie réalisées.

Le problème de maintenance des composants électroniques, surtout des GPU, est particulièrement épineux. Lorsque les GPU tombent en panne pendant l'entraînement des modèles d'IA, ce qui arrive régulièrement dans les grands clusters de calcul, les centres de données au sol peuvent les remplacer en quelques heures. En orbite, la maintenance est fondamentalement différente, ce que le milliardaire n'a pas entièrement abordé dans son raisonnement.

Mais rien de tout cela n'a tempéré l'enthousiasme d'Elon Musk ni son calendrier. Il considère 2028 comme le point d'inflexion où les centres de données orbitaux deviendront économiquement supérieurs aux centres terrestres. « Vous pouvez me croire sur parole, dans 36 mois, mais probablement plutôt dans 30 mois, l'endroit le plus intéressant économiquement pour installer l'IA sera l'espace », a-t-il déclaré à Patrick Collison et Dwarkesh Patel.

Le défi de l'alimentation : pourquoi l'énergie solaire ne suffit pas

Un ancien scientifique de la NASA a déclaré que les centres de données dans l'espace sont « une idée absolument catastrophique qui n'a vraiment aucun sens ». Le spécialiste en électronique a expliqué que les centres de données spatiaux ne sont pas pratiques pour plusieurs raisons : une production d'électricité insuffisante, des problèmes complexes de régulation thermique, ainsi que les effets néfastes des rayonnements sur les composants électroniques.

Même si l’espace paraît offrir un avantage en énergie, ce n’est pas suffisant pour alimenter un centre de données gigantesque. Il a donné l’exemple des panneaux solaires de la Station spatiale internationale (ISS), qui - malgré une surface immense (environ 2 500 m²) - produisent un peu plus de 200 kW au maximum.

En prenant comme référence le NVIDIA H200, la consommation électrique par GPU est de l'ordre de 0,7 kW par puce. En pratique, en comptant les pertes, un GPU H200 pourrait consommer environ 1 kW. Le spécialiste en électronique spatiale affirme qu'avec ces chiffres, une installation de la taille de l’ISS pourrait alimenter à peu près 200 GPU H200, ce qui est dérisoire par rapport aux centres de données modernes (des dizaines de milliers de GPU).

Conclusion : « pour égaler la puissance de calcul d’un seul centre de données terrestre, il faudrait lancer des centaines voire des milliers de satellites de la taille de l’ISS, ce qui rend le projet irréaliste ». L'expert affirme également que les générateurs thermiques à radio-isotopes (RTG) ne seront pas d'une grande aide.

Le refroidissement dans le vide spatial : un cauchemar thermique

L'expert affirme que l'idée selon laquelle « il fait froid dans l’espace » est trompeuse. Dans le vide, il n’y a ni air ni convection. « Refroidir ne serait-ce qu'un seul GPU H200 serait un véritable cauchemar. Il est évident qu'un dissipateur thermique et un ventilateur ne suffiraient pas », affirme l'ancien ingénieur de la NASA. Dans ce cas, il estime que la chaleur devrait être transférée vers un panneau radiateur qui doit diffuser la chaleur dans l'espace.

Le système de contrôle thermique actif (ATCS) de l'ISS est un exemple de ce type de système de contrôle thermique. Il utilise un circuit de refroidissement à l'ammoniac et un grand système de panneaux radiateurs thermiques. Sa limite de dissipation est de 16 kW, soit environ 16 GPU H200, un peu plus que l'équivalent d'un quart d'un rack au sol. Le système de panneaux radiateurs thermiques mesure 13,6 m x 3,12 m, soit environ 42,5 mètres carrés.

Si nous prenons 200 kW comme référence et supposons que toute cette puissance sera fournie aux GPU, nous aurions besoin d'un système 12,5 fois plus grand, soit environ 531 mètres carrés, soit environ 2,6 fois la taille du panneau solaire correspondant. « Il s'agirait alors d'un satellite très grand, dépassant largement la superficie de l'ISS, le tout pour l'équivalent de trois racks de serveurs standard sur Terre », explique l'ancien spécialiste de NASA.

La radiation spatiale : un ennemi mortel pour les puces modernes

En supposant que les entreprises puissent à la fois alimenter et refroidir leurs appareils électroniques dans l'espace, elles sont confrontées à un autre problème : la tolérance aux rayonnements. Si vous vous trouvez en orbite terrestre basse (LEO), vous êtes à l'intérieur de la ceinture de radiation interne, où la dose de rayonnement est similaire à celle subie par les avions volant à haute altitude : supérieure à celle d'un avion de ligne, mais pas dramatique.

Plus loin, en orbite moyenne (MEO), où se trouvent les satellites GPS, ceux-ci ne sont pas protégés par les ceintures de Van Allen. En dehors des ceintures, vous êtes essentiellement dans l'espace lointain (les détails varient en fonction de votre proximité avec le Soleil, mais les principes sont similaires).

Les processeurs (GPU, TPU, etc.) actuels sont extrêmement sensibles aux radiations, qui provoquent des erreurs et d'importantes défaillances électroniques telles que des perturbations ponctuelles et des verrouillages, ce qui a un impact critique sur la fiabilité du matériel informatique standard des centres de données. D'après l'auteur, l'industrie technologique pourrait construire des puces durcies pour l’espace, mais cela l'exposerait à un autre problème.

Les composants électroniques existants qui résistent aux conditions spatiales sont optimisés pour une faible consommation d'énergie et une fiabilité extrême plutôt que pour leurs performances, ce qui contraste fortement avec les exigences de puissance élevée et de haute densité des calculs IA modernes.

Les défis liés à la communication avec les serveurs dans l'espace

La plupart des satellites communiquent avec le sol via des ondes radio. Il est difficile d’obtenir un débit fiable bien supérieur à environ 1 Gb/s. Il compare ce chiffre avec les communications internes d’un rack de serveurs sur Terre, où des interconnexions de 100 Gb/s sont considérées comme minimales. Sans une communication très haut débit, les centres de données déployés dans l'espace ne pourraient pas servir efficacement les usages modernes.

Même si on résout l’alimentation et le refroidissement, les défis liés à la liaison de données rendent le projet beaucoup moins viable. « Je suppose que c'est tout à fait possible si vous le souhaitez vraiment, mais je pense avoir démontré ci-dessus que cela serait tout d'abord extrêmement difficile à réaliser, disproportionnellement coûteux par rapport aux centres de données terrestres, et offrirait au mieux des performances médiocres », a souligné l'auteur.

L'IA dans l'espace : scepticisme sur le calendrier et la faisabilité

Elon Musk a annoncé le 2 février la fusion de deux de ses entreprises phares : la société de fusée SpaceX et la startup xAI. Cette prend tout son sens si l'on prévoit de lancer une infrastructure informatique en orbite. C'est le genre d'intégration verticale qui rendrait même Jeff Bezos jaloux. Elon Musk a déclaré que cette transaction accélèrera les plans de conquête spatiale de SpaceX et le déploiement de centres de données destinés à l'inférence de l'IA.

Mais une vision...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Delias
Modérateur https://www.developpez.com
Le 06/02/2026 à 15:28
Citation Envoyé par Mathis Lucas Voir le message
Et elle ne nécessite pas de batteries.
Déjà là l'argument est perché.
A moins d'être parfaitement à la bonne orbite pour être stationnaire entre le soleil et la terre, il y a forcement un moment où un satellite passe dans l'ombre de la terre (et exceptionnellement celle de la lune).
Avoir tous les satellites dans cette petite zone va être un cauchemar. Plus toutes les autres raisons mentionnées.

Ils n'arrivent déjà pas à produire ce qui est prévu d'être installé sur terre, comment vont-ils produire encore plus pour aller dans l'espace

Faire le buzz, c'est sa seule façon de bosser, une fois de plus.
1  0