
OpenAI a lancé GPT-4.5, son plus récent et plus grand modèle de langage d'IA. GPT-4.5 sera disponible en tant qu'aperçu de recherche pour les utilisateurs de ChatGPT Pro (ceux qui payent 200 dollars par mois) ainsi que les développeurs des niveaux API payants, qui paieront 75 dollars pour 1 million de jetons (contre 15 dollars pour GPT-o1). Le plan initial prévoyait que le modèle soit également disponible sur le plan plus abordable ChatGPT Plus (20 $/mois), qui est l'endroit où OpenAI lance généralement de nouveaux produits. OpenAI qualifie ce lancement de « modèle le plus compétent à ce jour », mais a d'abord prévenu que GPT-4.5 n'est pas un modèle frontière et pourrait ne pas être aussi performant que o1 ou o3-mini.
GPT-4.5 disposera de meilleures capacités d'écriture, d'une meilleure connaissance du monde et de ce qu'OpenAI appelle une « personnalité raffinée par rapport aux modèles précédents ». OpenAI affirme que l'interaction avec GPT 4.5 sera plus « naturelle », ajoutant que le modèle est plus apte à reconnaître les modèles et à établir des connexions, ce qui le rend idéal pour l'écriture, la programmation et la « résolution de problèmes pratiques ».
Cependant, OpenAI note qu'il n'introduira pas suffisamment de nouvelles capacités pour être considéré comme un modèle d'avant-garde. « GPT-4.5 n'est pas un modèle frontière, mais c'est le plus grand LLM d'OpenAI, améliorant l'efficacité de calcul de GPT-4 de plus de 10 fois », a déclaré OpenAI dans un document qui a fuité avant son annonce. « Il n'introduit pas 7 nouvelles capacités nettes par rapport aux versions de raisonnement précédentes, et ses performances sont inférieures à celles de o1, o3-mini et deep research pour la plupart des évaluations de préparation ». OpenAI a depuis retiré cette mention d'une version mise à jour du document.
The Information avait également rapporté que GPT 4.5, au nom de code « Orion », offrait des gains de performance beaucoup moins importants que prévu. L'amélioration de la qualité entre GPT-4 et Orion est nettement moins importante que celle observée entre GPT-3 et GPT-4, selon ses informations. De plus, Orion ne surpassait pas systématiquement son prédécesseur dans des domaines tels que la programmation, ne montrant des améliorations que dans les capacités linguistiques, selon les sources de The Information. Le quotidien avait précisé que le modèle pourrait également coûter plus cher à exploiter dans les centres de données que les versions précédentes.
Il a été précédemment rapporté qu'OpenAI utilisait son modèle de raisonnement o1, dont le nom de code est Strawberry, pour entraîner GPT-4.5 avec des données synthétiques. OpenAI affirme avoir entraîné GPT-4.5 « en utilisant de nouvelles techniques de supervision combinées à des méthodes traditionnelles telles que le réglage fin supervisé (SFT) et l'apprentissage par renforcement à partir du feedback humain (RLHF), similaires à celles utilisées pour GPT-4o ».
Malgré certaines de ses limites, GPT-4.5 hallucine beaucoup moins que GPT-4o, selon OpenAI, et légèrement moins que son modèle o1. « Nous avons aligné GPT-4.5 pour qu'il soit un meilleur collaborateur, en rendant les conversations plus chaleureuses, plus intuitives et émotionnellement nuancées », a déclaré Raphael Gontijo Lopes, chercheur chez OpenAI, lors du livestream de l'entreprise. « Pour mesurer cela, nous avons demandé à des testeurs humains de l'évaluer par rapport à GPT-4o, et GPT-4.5 a été plus performant dans pratiquement toutes les catégories. »
Dans un post sur X, le PDG d'OpenAI, Sam Altman, a reconnu que GPT-4.5 est un « modèle géant et coûteux » et qu'il « n'écrasera pas les benchmarks ».
Après son lancement pour les utilisateurs Pro, OpenAI indique que GPT-4.5 sera déployé pour les utilisateurs Plus et Team la semaine prochaine, puis pour les utilisateurs Enterprise et Edu. Il est également disponible dès maintenant dans la plateforme Azure AI Foundry de Microsoft, avec de nouveaux modèles de Stability, Cohere et Microsoft.
L’omniprésence des GPU dans l’IA moderne
Les GPU sont la colonne vertébrale de l’IA moderne. Contrairement aux CPU (unités centrales de traitement), les GPU sont spécialement conçus pour exécuter des calculs massivement parallèles, un atout essentiel pour l’entraînement et l’inférence des modèles d’apprentissage profond comme GPT-4.5. Avec l’augmentation exponentielle des besoins en puissance de calcul, la demande pour ces composants critiques a explosé, mettant sous tension les chaînes d’approvisionnement et les capacités de production des principaux fabricants comme NVIDIA et AMD.
OpenAI face aux limites matérielles
Depuis ses débuts, OpenAI s’est positionné comme un leader de l’IA générative, mais même une entreprise de cette envergure n’échappe pas aux défis matériels. Le développement de GPT-4.5 requiert une quantité colossale de GPU haut de gamme, non seulement pour son entraînement initial, mais aussi pour son déploiement et son fonctionnement continu.
Sam Altman a donc révélé que la société ne pouvait pas déployer son modèle de manière simultanée à grande échelle, faute de ressources informatiques suffisantes. Ce constat met en exergue une vérité souvent sous-estimée : l’IA n’est pas uniquement une question d’algorithmes et de modèles, mais aussi d’infrastructure et d’accès aux ressources matérielles.

Le manque de GPU n’affecte pas seulement OpenAI
De nombreuses entreprises spécialisées en IA, des startups aux géants comme Google DeepMind ou Meta AI, sont confrontées à des difficultés similaires. Cette pénurie résulte de plusieurs facteurs :
- Explosion de la demande : La popularisation de l’IA générative a provoqué un rush sur les GPU, poussant les fournisseurs à leurs limites.
- Goulots d’étranglement industriels : La production de semi-conducteurs est un processus long et complexe, qui ne peut pas s’adapter instantanément aux fluctuations de la demande.
- Monopole de NVIDIA : Actuellement, NVIDIA domine largement le marché des GPU adaptés à l’IA, ce qui limite les alternatives pour les entreprises comme OpenAI.
Les implications pour OpenAI et l’écosystème IA
L’incapacité d’OpenAI à déployer GPT-4.5 à grande échelle a plusieurs conséquences. D’un point de vue commercial, cela freine son expansion et peut donner un avantage concurrentiel à des rivaux mieux préparés sur le plan logistique. D’un point de vue technologique, cette situation souligne l’importance stratégique de l’accès aux infrastructures de calcul.
Face à cette réalité, OpenAI pourrait chercher à diversifier ses fournisseurs ou à investir dans ses propres solutions matérielles, à l’instar de Google avec ses TPU (Tensor Processing Units) ou d’Amazon avec ses puces Trainium. Une autre option serait de s’allier avec des acteurs comme Microsoft, qui dispose d’énormes capacités de cloud computing via Azure.
Vers un avenir plus autonome en matière de puissance de calcul ?...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.