La Silicon Valley mise tout sur l'IA. Les centres de données mettent à rude épreuve les réseaux électriques. Les coûts de formation des modèles se chiffrent en milliards. Pourtant, dans l'industrie du logiciel, les revenus de l'IA restent théoriques.
Les hyperscalers (associés à Meta et Oracle) prévoient de dépenser 292 milliards de dollars dans l'infrastructure de l'IA d'ici 2025, soit une augmentation de 88 % par rapport à 2023. Toutefois, deux tiers des éditeurs de logiciels signalent encore une décélération de la croissance en 2024.
Les actions du secteur des semi-conducteurs ont bondi de 43 % depuis le début de l'année en raison des attentes en matière d'IA, tandis que l'indice des logiciels IGV a progressé de 27,62 %. Microsoft, malgré son investissement dans OpenAI, a sous-performé l'IGV de 19 % depuis la publication du ChatGPT. L'iShares Expanded Tech-Software Sector ETF (IGV) est un indice sectoriel qui inclut Microsoft et de nombreuses sociétés de logiciels à forte capitalisation.
Un modèle économique sous pression
Les dépenses massives en IA, bien que spectaculaires, révèlent un problème de fond : le décalage entre les investissements réalisés et les bénéfices tangibles. Les entreprises comme Google, Microsoft et Amazon misent sur l'IA non seulement pour maintenir leur position dominante, mais aussi pour attirer des parts de marché futures dans des secteurs en évolution rapide comme la santé, l'automatisation ou la finance. Cependant, les logiciels d'IA peinent à transformer ces investissements en flux de revenus solides.
Les raisons sont multiples. D'une part, les entreprises clientes hésitent à adopter des solutions coûteuses, souvent complexes à intégrer dans leurs systèmes existants. D'autre part, les réglementations émergentes et les préoccupations éthiques autour de l'IA freinent leur déploiement à grande échelle. Enfin, les modèles économiques des acteurs de l'IA restent flous, reposant sur des promesses de gains futurs sans garanties concrètes.
L'impact environnemental des centres de données
Un autre point critique réside dans la pression exercée par les centres de données sur les infrastructures énergétiques. L'entraînement de modèles d'IA, en particulier ceux de grande taille comme les modèles de langage ou les algorithmes de vision par ordinateur, nécessite une puissance de calcul gigantesque. Ces opérations consomment des quantités faramineuses d'électricité, contribuant à des émissions de carbone significatives et mettant à rude épreuve les réseaux électriques dans plusieurs régions du monde.
Cette consommation énergétique pose des problèmes de durabilité. Alors que les gouvernements et les entreprises s'efforcent de respecter des engagements climatiques ambitieux, la croissance rapide des centres de données entre en conflit avec ces objectifs. De plus, les infrastructures énergétiques actuelles, souvent vieillissantes, ne peuvent pas toujours supporter la demande croissante, augmentant les risques de pannes et les tensions sur les réseaux électriques locaux.
Le coût exponentiel de la recherche et du développement
Le coût de l'entraînement des modèles atteint des sommets vertigineux. OpenAI, par exemple, a dépensé des centaines de millions de dollars pour développer GPT-4. Ce coût exponentiel reflète non seulement la complexité technique croissante des modèles, mais aussi la nécessité d'infrastructures matérielles et logicielles de pointe.
À terme, cette situation pourrait accentuer la concentration du pouvoir dans les mains de quelques entreprises technologiques capables de supporter ces dépenses. Les start-ups et les chercheurs indépendants risquent d'être exclus du marché, réduisant ainsi l'innovation et la diversité des perspectives dans le domaine de l'IA.
Un rapport note une décélération dans la croissance des entreprises de logiciels
Selon les estimations de la banque d'investissement Jefferies, le chiffre d'affaires de Microsoft lié à l'IA représente 3 % du chiffre d'affaires total. Snowflake s'attend à une contribution immatérielle de l'IA au cours de l'exercice 2025. Salesforce ne tient pas compte de la contribution matérielle des nouveaux produits d'IA dans ses prévisions pour l'exercice 2025. Firefly AI d'Adobe, lancé en mars 2023, n'a pas accéléré le chiffre d'affaires.
61 % des entreprises indiquent que leur architecture actuelle ne peut pas prendre en charge les charges de travail d'IA sans modifications, selon Jefferies. La moitié des ingénieurs de données passent le plus clair de leur temps à résoudre les problèmes de connexion des sources de données. Le traitement en temps réel et les pipelines de données restent les principales contraintes architecturales.
Une enquête menée par Jefferies a révélé que les grandes entreprises sont en tête de l'adoption de l'IA en raison de l'infrastructure de données existante. Selon un consultant partenaire d'AWS cité dans le rapport, « un très faible pourcentage de POC passe en production ».
Les coûts de formation pour les modèles d'IA d'avant-garde ont atteint 100 millions de dollars. Le PDG d'Anthropic, Dario Amodei, prévoit des coûts de « dix ou cent milliards de dollars » entre 2025 et 2027.
Meta affirme que la formation du Llama 4 nécessitera « presque 10 fois plus » de calcul que celle du Llama 3. Zuckerberg a déclaré aux investisseurs : « la quantité de calcul nécessaire pour entraîner Llama 4 sera probablement près de 10 fois supérieures à celle que nous avons utilisée pour entraîner le Llama 3, et les futurs modèles continueront à se développer au-delà de cela. Il est difficile de prédire l'évolution des modèles sur plusieurs générations dans le futur. Mais à ce stade, je préfère prendre le risque de développer la capacité avant qu'elle ne soit nécessaire plutôt que trop tard, étant donné les longs délais de mise en place de nouveaux projets d'inférence ». L'augmentation de la puissance devrait coûter excessivement cher.Anthropic CEO Dario Amodei says by 2027 AI models will cost up to $100 billion to train and will be "better than most humans at most things" pic.twitter.com/Ay5qtY3sN6
— Tsarathustra (@tsarnick) June 27, 2024
Alexandr Wang, PDG de Scale AI, indique qu'ils se sont heurtés à un mur en matière de pré-entraînement. Les données du laboratoire de recherche en IA de Berkeley montrent que la mise à l'échelle de grands modèles de langage entraîne une diminution des performances.
Les limites de l'infrastructure physique persistent également. Meta signale que la consommation d'énergie lors de l'entraînement des modèles « dépasse les limites du réseau électrique ». Le vice-président de Microsoft chargé du matériel Azure déclare que « l'infrastructure de l'IA peut difficilement répondre aux besoins du développement de modèles d'IA ».
Le rapport de Jefferies note que les entreprises passent du développement interne à des solutions achetées. Un partenaire de Salesforce rapporte qu'un client qui employait auparavant « 50 personnes essayant de créer des agents » a déployé la solution d'IA de Salesforce « en quelques heures ».
Les dépenses d'infrastructure continuent de s'accélérer tandis que la croissance du chiffre d'affaires des logiciels ralentit. L'indice IGV des logiciels accuse un retard de 13 % sur les valeurs des semi-conducteurs en 2024.
La course à l'IA est devenue trop coûteuse et les résultats ne sont pas à la hauteur
Susan Li, la directrice financière de Meta, a déclaré que l'entreprise réfléchissait à différents projets de centres de données et à la création de capacités pour former les futurs modèles d'IA. Elle a ajouté que Meta s'attend à ce que cet investissement augmente les dépenses en capital en 2025. La formation de modèles est devenue une activité coûteuse. Les données indiquent que les dépenses en capital de Meta ont augmenté de près de 33 % pour atteindre 8,5 milliards de dollars au deuxième trimestre 2024, contre 6,4 milliards de dollars un an plus tôt, en raison des investissements dans les serveurs, les centres de données et l'infrastructure de réseau.
Les réseaux électriques n'étaient pas préparés à la croissance subite de la demande
L'IA gagne en popularité dans presque tous les domaines d'activité de la vie et a poussé les actions des entreprises technologiques vers des sommets historiques. Mais une « vérité dérangeante » apparaît dans de plus en plus de conversations professionnelles : l'IA est un énorme gouffre à électricité. Elon Musk a déclaré récemment que la demande croissante de puces d'IA gourmandes en énergie pourrait bientôt entraîner une pénurie d'électricité. « L'année prochaine vous verrez qu'ils ne trouveront pas assez d'électricité pour faire fonctionner toutes les puces », a-t-il déclaré à la conférence Bosch ConnectedWorld fin avril.
La croissance rapide de l'IA a fait grimper la demande en énergie à un niveau plus élevé que ce qui était prévu. Aux États-Unis, elle mettrait déjà à rude épreuve les capacités de production du pays. Grid Strategies estime que les prévisions de croissance sur neuf ans pour l'Amérique du Nord ont pratiquement doublé par rapport à l'année dernière, car les entreprises construisent des centres de données pour l'IA qui font paraître minuscules les besoins des centres de données traditionnels. Où cela nous mène-t-il ? Comment pouvons-nous naviguer dans un avenir énergétique durable avec l'explosion de l'utilisation de l'IA ?
Aux États-Unis, les analystes rapportent que les réseaux électriques atteignent peu à peu leur limite. L'année dernière, les prévisions à cinq ans de Grid Strategies tablaient sur une croissance de 2,6 %. Depuis, ce chiffre a presque doublé pour atteindre 4,7 % et les planificateurs de Grid Strategies s'attendent à ce que la demande de pointe augmente de 38 gigawatts. Cela équivaut à la quantité nécessaire pour alimenter 12,7 millions de foyers, soit un peu plus que le nombre total d'unités d'habitation au Texas. Mais plus inquiétant encore, les analystes pensent que ce chiffre est probablement une sous-estimation des besoins réels.
OpenAI s'attend à 5 milliards de dollars de pertes cette année à cause des coûts de formation de l'IA
OpenAI est sur la bonne voie pour dépenser quelque 7 milliards de dollars uniquement pour la formation de ses modèles d'intelligence artificielle, et 1,5 milliard de dollars supplémentaires pour la dotation en personnel, selon un rapport. Ces dépenses dépassent de loin celles de ses rivaux, comme Anthropic, soutenu par Amazon, qui prévoit un taux d'absorption de 2,7 milliards de dollars en 2024.
Selon une analyse de The Information, l’entreprise pourrait perdre jusqu’à 5 milliards de dollars en 2024, mettant ainsi en péril sa trésorerie dans les 12 prochains mois. Les dépenses élevées d'OpenAI ont obligé l'entreprise à conclure un nouveau cycle de financement.
Sources : IGV, Jefferies
Et vous ?
Les investissements massifs dans l’IA sont-ils une bulle spéculative ou un pari à long terme ?
Comment les entreprises technologiques peuvent-elles mieux démontrer la rentabilité des logiciels d'IA ?
Faut-il repenser les modèles de financement des start-ups en IA pour encourager des innovations à plus petite échelle ?
Les bénéfices potentiels de l'IA justifient-ils son impact environnemental croissant ?
L’IA est-elle surévaluée en tant que solution miracle à des problèmes sociaux et économiques complexes ?
Voir aussi :
L'arnaque de Kaedim : comment une start-up d'IA a trompé ses clients avec du travail réalisé par des humains. Quand l'IA devient une façade pour exploiter des artistes 3D