
une situation qui révèle les faiblesses structurelles de l’industrie de l’intelligence artificielle
Le monde de l’intelligence artificielle est en perpétuelle effervescence, et chaque avancée dans le domaine des modèles de langage attire l'attention des experts comme du grand public. Pourtant, la récente déclaration de Sam Altman, PDG d’OpenAI, a mis en lumière une contrainte inattendue pour une entreprise aussi influente : le manque de GPU (unités de traitement graphique). Selon Altman, cette pénurie a forcé OpenAI à échelonner le déploiement de son dernier modèle, GPT-4.5, compromettant ainsi le calendrier initial de lancement.
OpenAI a lancé GPT-4.5, son plus récent et plus grand modèle de langage d'IA. GPT-4.5 sera disponible en tant qu'aperçu de recherche pour les utilisateurs de ChatGPT Pro (ceux qui payent 200 dollars par mois) ainsi que les développeurs des niveaux API payants, qui paieront 75 dollars pour 1 million de jetons (contre 15 dollars pour GPT-o1). Le plan initial prévoyait que le modèle soit également disponible sur le plan plus abordable ChatGPT Plus (20 $/mois), qui est l'endroit où OpenAI lance généralement de nouveaux produits. OpenAI qualifie ce lancement de « modèle le plus compétent à ce jour », mais a d'abord prévenu que GPT-4.5 n'est pas un modèle frontière et pourrait ne pas être aussi performant que o1 ou o3-mini.
GPT-4.5 disposera de meilleures capacités d'écriture, d'une meilleure connaissance du monde et de ce qu'OpenAI appelle une « personnalité raffinée par rapport aux modèles précédents ». OpenAI affirme que l'interaction avec GPT 4.5 sera plus « naturelle », ajoutant que le modèle est plus apte à reconnaître les modèles et à établir des connexions, ce qui le rend idéal pour l'écriture, la programmation et la « résolution de problèmes pratiques ».
Cependant, OpenAI note qu'il n'introduira pas suffisamment de nouvelles capacités pour être considéré comme un modèle d'avant-garde. « GPT-4.5 n'est pas un modèle frontière, mais c'est le plus grand LLM d'OpenAI, améliorant l'efficacité de calcul de GPT-4 de plus de 10 fois », a déclaré OpenAI dans un document qui a fuité avant son annonce. « Il n'introduit pas 7 nouvelles capacités nettes par rapport aux versions de raisonnement précédentes, et ses performances sont inférieures à celles de o1, o3-mini et deep research pour la plupart des évaluations de préparation ». OpenAI a depuis retiré cette mention d'une version mise à jour du document.
The Information avait également rapporté que GPT 4.5, au nom de code « Orion », offrait des gains de performance beaucoup moins importants que prévu. L'amélioration de la qualité entre GPT-4 et Orion est nettement moins importante que celle observée entre GPT-3 et GPT-4, selon ses informations. De plus, Orion ne surpassait pas systématiquement son prédécesseur dans des domaines tels que la programmation, ne montrant des améliorations que dans les capacités linguistiques, selon les sources de The Information. Le quotidien avait précisé que le modèle pourrait également coûter plus cher à exploiter dans les centres de données que les versions précédentes.
Il a été précédemment rapporté qu'OpenAI utilisait son modèle de raisonnement o1, dont le nom de code est Strawberry, pour entraîner GPT-4.5 avec des données synthétiques. OpenAI affirme avoir entraîné GPT-4.5 « en utilisant de nouvelles techniques de supervision combinées à des méthodes traditionnelles telles que le réglage fin supervisé (SFT) et l'apprentissage par renforcement à partir du feedback humain (RLHF), similaires à celles utilisées pour GPT-4o ».
Malgré certaines de ses limites, GPT-4.5 hallucine beaucoup moins que GPT-4o, selon OpenAI, et légèrement moins que son modèle o1. « Nous avons aligné GPT-4.5 pour qu'il soit un meilleur collaborateur, en rendant les conversations plus chaleureuses, plus intuitives et émotionnellement nuancées », a déclaré Raphael Gontijo Lopes, chercheur chez OpenAI, lors du livestream de l'entreprise. « Pour mesurer cela, nous avons demandé à des testeurs humains de l'évaluer par rapport à GPT-4o, et GPT-4.5 a été plus performant dans pratiquement toutes les catégories. »
Dans un post sur X, le PDG d'OpenAI, Sam Altman, a reconnu que GPT-4.5 est un « modèle géant et coûteux » et qu'il « n'écrasera pas les benchmarks ».
Après son lancement pour les utilisateurs Pro, OpenAI indique que GPT-4.5 sera déployé pour les utilisateurs Plus et Team la semaine prochaine, puis pour les utilisateurs Enterprise et Edu. Il est également disponible dès maintenant dans la plateforme Azure AI Foundry de Microsoft, avec de nouveaux modèles de Stability, Cohere et Microsoft.
L’omniprésence des GPU dans l’IA moderne
Les GPU sont la colonne vertébrale de l’IA moderne. Contrairement aux CPU (unités centrales de traitement), les GPU sont spécialement conçus pour exécuter des calculs massivement parallèles, un atout essentiel pour l’entraînement et l’inférence des modèles d’apprentissage profond comme GPT-4.5. Avec l’augmentation exponentielle des besoins en puissance de calcul, la demande pour ces composants critiques a explosé, mettant sous tension les chaînes d’approvisionnement et les capacités de production des principaux fabricants comme NVIDIA et AMD.
OpenAI face aux limites matérielles
Depuis ses débuts, OpenAI s’est positionné comme un leader de l’IA générative, mais même une entreprise de cette envergure n’échappe pas aux défis matériels. Le développement de GPT-4.5 requiert une quantité colossale de GPU haut de gamme, non seulement pour son entraînement initial, mais aussi pour son déploiement et son fonctionnement continu.
Sam Altman a donc révélé que la société ne pouvait pas déployer son modèle de manière simultanée à grande échelle, faute de ressources informatiques suffisantes. Ce constat met en exergue une vérité souvent sous-estimée : l’IA n’est pas uniquement une question d’algorithmes et de modèles, mais aussi d’infrastructure et d’accès aux ressources matérielles.

Le manque de GPU n’affecte pas seulement OpenAI
De nombreuses entreprises spécialisées en IA, des startups aux géants comme Google DeepMind ou Meta AI, sont confrontées à des difficultés similaires. Cette pénurie résulte de plusieurs facteurs :
- Explosion de la demande : La popularisation de l’IA générative a provoqué un rush sur les GPU, poussant les fournisseurs à leurs limites.
- Goulots d’étranglement industriels : La production de semi-conducteurs est un processus long et complexe, qui ne peut pas s’adapter instantanément aux fluctuations de la demande.
- Monopole de NVIDIA : Actuellement, NVIDIA domine largement le marché des GPU adaptés à l’IA, ce qui limite les alternatives pour les entreprises comme OpenAI.
Les implications pour OpenAI et l’écosystème IA
L’incapacité d’OpenAI à déployer GPT-4.5 à grande échelle a plusieurs conséquences. D’un point de vue commercial, cela freine son expansion et peut donner un avantage concurrentiel à des rivaux mieux préparés sur le plan logistique. D’un point de vue technologique, cette situation souligne l’importance stratégique de l’accès aux infrastructures de calcul.
Face à cette réalité, OpenAI pourrait chercher à diversifier ses fournisseurs ou à investir dans ses propres solutions matérielles, à l’instar de Google avec ses TPU (Tensor Processing Units) ou d’Amazon avec ses puces Trainium. Une autre option serait de s’allier avec des acteurs comme Microsoft, qui dispose d’énormes capacités de cloud computing via Azure.
Vers un avenir plus autonome en matière de puissance de calcul ?
Le ralentissement du déploiement de GPT-4.5 met en évidence une tendance plus large : l’IA dépend encore énormément de quelques acteurs-clés du hardware, ce qui expose l’ensemble du secteur à des tensions d’approvisionnement. À terme, cette situation pourrait encourager des initiatives pour développer des architectures de calcul plus efficaces et diversifiées, réduisant ainsi la dépendance aux GPU traditionnels.
Entre promesses et réalités : le PDG de Microsoft exprime des réserves quant à l'enthousiasme entourant l'IA
Lors d'une récente interview avec le podcasteur Dwarkesh Patel, Satya Nadella, le PDG de Microsoft, a exprimé des réserves quant à l'enthousiasme entourant l'intelligence artificielle, en particulier l'idée d'avoir atteint une intelligence générale artificielle (AGI). Il a qualifié ces affirmations de « non-sens » et a souligné l'importance pour l'IA de démontrer une valeur économique réelle plutôt que de poursuivre des concepts fantaisistes. Parallèlement, des rapports indiquent que Microsoft reconsidère certains de ses investissements dans les infrastructures dédiées à l'IA. La société aurait annulé des baux pour la construction de centres de données aux États-Unis, suggérant une approche plus prudente face à l'expansion rapide de l'IA. Cette décision pourrait refléter une prise de conscience des défis techniques et économiques liés au déploiement à grande échelle de l'IA.
Depuis longtemps, les dépenses massives des géants de la technologie en matière d'intelligence artificielle suscitent des inquiétudes. Le mois dernier, la startup chinoise DeepSeek a présenté une technologie d'IA comparable, voire supérieure, à celle de ses rivaux occidentaux, et ce, pour une fraction du coût (même si SemiAnalysis affirme que DeepSeek a dépensé plus de 500 millions de dollars en puces Nvidia malgré les allégations au sujet d'une IA à bas prix). Depuis, le scepticisme de Wall Street à l'égard des plans d'investissement des géants de la technologie s'est accentué. Toutefois, Microsoft a toujours déclaré publiquement qu'elle s'en tiendrait à son plan de dépenses à grande échelle.
Fin janvier, lors d'une conférence téléphonique sur les résultats, Microsoft a insisté sur le fait qu'elle prévoyait d'investir 80 milliards de dollars dans des centres de données d'intelligence artificielle au cours de l'exercice fiscal en cours. Le PDG de Microsoft, Satya Nadella, a ce moment-là que Microsoft devait maintenir ses dépenses pour répondre à une « demande exponentiellement plus importante ».
Aujourd'hui, avec les signes de réduction des dépenses de Microsoft dans les centres de données, beaucoup commencent à spéculer : DeepSeek a-t-il discrètement fait changer d'avis à Microsoft ?
Source : OpenAI (1, 2)
Et vous ?





Voir aussi :

Vous avez lu gratuitement 60 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.