
et est disponible dans son API pour développeurs
Actuellement, ce modèle est uniquement accessible aux développeurs ayant investi au minimum cinq dollars dans les services API d'OpenAI. Le coût est établi à 150 dollars pour chaque million de jetons. Cela représente 750 000 mots saisis et un coût de 600 dollars pour chaque million de jetons produits. Ceci fait de o1-pro le modèle le plus onéreux à l'heure actuelle. OpenAI a multiplié par deux le coût de GPT-4.5 (75 dollars pour un million de tokens) pour o1-pro, le rendant dix fois plus onéreux que le modèle standard o1 (15 dollars pour un million de tokens). Pour ce tarif, on ne bénéficie que d'une puissance de calcul accrue, donc des réponses plus performantes. Les spécifications, quant à elles, ressemblent à celles de o1.
OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1, o1-pro, dans son API pour développeurs. Selon OpenAI, o1-pro utilise plus de puissance de calcul que o1 pour fournir « des réponses toujours meilleures ». Actuellement, il n'est disponible que pour certains développeurs (ceux qui ont dépensé au moins 5 dollars pour les services API d'OpenAI) et son prix est élevé... très élevé : OpenAI facture 150 dollars par million de jetons (~750 000 mots) introduits dans le modèle et 600 dollars par million de jetons générés par le modèle. C'est deux fois le prix du GPT-4.5 d'OpenAI pour l'entrée et 10 fois le prix de l'o1 normal.
OpenAI fait le pari que les performances améliorées d'o1-pro convaincront les développeurs de payer ces sommes astronomiques.
« O1-pro dans l'API est une version d'o1 qui utilise plus de calcul pour réfléchir davantage et fournir des réponses encore meilleures aux problèmes les plus difficiles », a déclaré un porte-parole d'OpenAI. « Après avoir reçu de nombreuses demandes de la part de notre communauté de développeurs, nous sommes ravis de l'intégrer à l'API afin d'offrir des réponses encore plus fiables. »
Pourtant, les premières impressions d'o1-pro, qui est disponible sur la plateforme de chatbot IA d'OpenAI, ChatGPT, pour les abonnés ChatGPT Pro depuis décembre, n'ont pas été incroyablement positives. Les utilisateurs ont constaté que le modèle avait du mal avec les puzzles Sudoku et qu'il se laissait surprendre par de simples blagues sur les illusions d'optique.o1-pro now available in API @benhylak @literallyhimmmm @shl @joshRnold @samgoodwin89 @byamadaro1013 @adonis_singh @alecvxyz @StonkyOli @gabrielchua_ @UltraRareAF @yukimasakiyu @theemao @curious_vii
— OpenAI Developers (@OpenAIDevs) March 19, 2025
It uses more compute than o1 to provide consistently better responses. Available… pic.twitter.com/Iub6tp1NTi
« J'ai demandé à ChatGPT o1 Pro Mode de créer un SVG d'une licorne (C'est le modèle auquel vous avez accès pour 200$ par mois) »o1 and o1-pro both failed here, probably still because of the vision limitations (the same with Sudoku puzzles)https://t.co/mAVK7WxBrq pic.twitter.com/O9boSv7ZGt
— Tibor Blaho (@btibor91) December 5, 2024
De nombreuses personnes sur X ne semblaient pas convaincues que les réponses du mode o1 pro étaient de niveau 200 $ : « OpenAI a-t-elle donné des exemples concrets d'invites qui échouent dans o1 normal mais réussissent dans o1-pro ? », a demandé l'informaticien britannique Simon Willison. « Je veux voir un seul exemple concret qui montre son avantage ».I asked ChatGPT o1 Pro Mode to create an SVG of a unicorn.
— Rammy (@rammydev) December 5, 2024
(This is the model you get access to for $200 monthly) pic.twitter.com/h9HwY3aYwU
En outre, certains tests internes d'OpenAI réalisés à la fin de l'année dernière ont montré que o1-pro n'était que légèrement plus performant que o1 standard pour les problèmes de codage et de mathématiques. Il a toutefois répondu à ces problèmes de manière plus fiable, selon ces tests.o1-pro question: have OpenAI shared any concrete examples of prompts that fail in regular o1 but succeed in o1-pro?
— Simon Willison (@simonw) December 6, 2024
If I'm going to 10x my subscription fee I want to see what I'm getting!
Les tests internes d'OpenAI montrent que le mode pro d'o1 est à peine plus performant que le mode standard d'o1 pour les problèmes de codage et de mathématiques
OpenAI a effectué une évaluation « plus stricte » sur les mêmes benchmarks afin de démontrer la cohérence de o1 pro mode : le modèle n'était considéré comme ayant résolu une question que s'il obtenait la bonne réponse quatre fois sur quatre. Mais même dans ces tests, les améliorations n'étaient pas spectaculaires
S'il fallait illustrer l'utilisation d'o1-pro et son impact potentiel en termes de dépense, penchons nous sur le billet de Simon Willison qui s'est servi du LLM pour dessiner un pélican sur une bicyclette dont voici un extrait :

De façon brossée, la distillation des modèles, ou knowledge distillation, est une méthode permettant de transférer les connaissances d’un modèle volumineux (appelé modèle professeur) vers un modèle plus petit (modèle étudiant). L’objectif est de capturer l’essence des performances du modèle initial tout en diminuant la complexité computationnelle et les coûts associés. Bien sûr, en pratique, ce n'est pas aussi simple mais l'idée ici est d'expliquer le principe.
Cette approche repose sur plusieurs principes :
- Transfert de connaissances implicite : Le modèle professeur entraîne le modèle étudiant en lui fournissant non seulement les bonnes réponses, mais aussi des indications sur la manière dont il prend ses décisions.
- Réduction des besoins en calcul : Un modèle plus petit consomme moins d’énergie et nécessite moins de puissance de calcul, le rendant plus accessible.
- Maintien des performances : Grâce à des techniques avancées de distillation, les modèles étudiants peuvent atteindre des résultats comparables à ceux des modèles professeurs avec une fraction de leur taille initiale.
Depuis longtemps, les dépenses massives des géants de la technologie en matière d'intelligence artificielle suscitent des inquiétudes.
Et pourtant, le 20 janvier, DeepSeek, dirigé par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, a publié le modèle d'IA R1 sous une licence MIT ouverte, la plus grande version contenant 671 milliards de paramètres. Elle a pris la Silicon Valley et tout le monde de l'IA par surprise, car, selon un document rédigé par l'entreprise, DeepSeek-R1 bat les principaux modèles du secteur, comme OpenAI o1, sur plusieurs critères mathématiques et de raisonnement.
En fait, sur de nombreux critères importants (capacité, coût, ouverture), DeepSeek donne du fil à retordre aux géants occidentaux de l'IA. DeepSeek affirme avoir créé un modèle de niveau o1 qui fonctionne à 95 % du coût. Si o1 coûte 15 $ par million de jetons d'entrée et 60 $ par million de jetons de sortie (un jeton représente environ 4 caractères), DeepSeek est estimé à environ 0,55 $ et 2,19 $ par million de jetons d'entrée et de sortie, respectivement.
DeepSeek peut fonctionner sur des puces moins avancées. Dans un article publié fin décembre, les chercheurs de DeepSeek ont estimé qu'ils avaient construit et entraîné leur modèle V3 pour moins de 6 millions de dollars en utilisant environ 2 000 puces Nvidia H800. Les informations publiées par DeepSeek ont créé la panique sur le marché. Les investisseurs semblent se demander si la demande pour les puces haut de gamme de Nvidia n'est pas exagérée.
DeepSeek a attiré l’attention en lançant des modèles de langage optimisés grâce à la distillation. En combinant cette approche avec d’autres techniques d’optimisation, DeepSeek a prouvé qu’il est possible de créer des modèles plus légers et efficaces sans sacrifier la qualité des réponses générées.
Un modèle économique plus viable pour l’IA
L’une des conséquences majeures de cette avancée est la diminution des coûts d’exploitation des modèles d’IA. Jusqu’à présent, les grandes entreprises comme OpenAI, Google et Meta investissaient des sommes colossales dans des modèles massifs nécessitant des infrastructures complexes et énergivores. Avec la distillation, il devient possible de proposer des alternatives plus économiques et accessibles aux petites entreprises et startups, qui ne disposent pas des mêmes moyens financiers.
Bien que la distillation soit largement utilisée depuis des années, les progrès récents ont conduit les experts de l'industrie à penser que le processus sera de plus en plus une aubaine pour les start-ups qui cherchent des moyens rentables de créer des applications basées sur la technologie.
« La distillation est tout à fait magique », a déclaré Olivier Godement, responsable des produits pour la plateforme OpenAI. « Il s'agit d'un processus qui consiste essentiellement à prendre un très grand modèle de pointe et à l'utiliser pour enseigner un modèle plus petit[...] très performant dans des tâches spécifiques et dont l'exécution est très bon marché et très rapide ».
Sources : OpenAI, Simon Willison
Et vous ?



Voir aussi :


Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.