Actuellement, ce modèle est uniquement accessible aux développeurs ayant investi au minimum cinq dollars dans les services API d'OpenAI. Le coût est établi à 150 dollars pour chaque million de jetons. Cela représente 750 000 mots saisis et un coût de 600 dollars pour chaque million de jetons produits. Ceci fait de o1-pro le modèle le plus onéreux à l'heure actuelle. OpenAI a multiplié par deux le coût de GPT-4.5 (75 dollars pour un million de tokens) pour o1-pro, le rendant dix fois plus onéreux que le modèle standard o1 (15 dollars pour un million de tokens). Pour ce tarif, on ne bénéficie que d'une puissance de calcul accrue, donc des réponses plus performantes. Les spécifications, quant à elles, ressemblent à celles de o1.OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1, o1-pro, dans son API pour développeurs. Selon OpenAI, o1-pro utilise plus de puissance de calcul que o1 pour fournir « des réponses toujours meilleures ». Actuellement, il n'est disponible que pour certains développeurs (ceux qui ont dépensé au moins 5 dollars pour les services API d'OpenAI) et son prix est élevé... très élevé : OpenAI facture 150 dollars par million de jetons (~750 000 mots) introduits dans le modèle et 600 dollars par million de jetons générés par le modèle. C'est deux fois le prix du GPT-4.5 d'OpenAI pour l'entrée et 10 fois le prix de l'o1 normal.
OpenAI fait le pari que les performances améliorées d'o1-pro convaincront les développeurs de payer ces sommes astronomiques.
« O1-pro dans l'API est une version d'o1 qui utilise plus de calcul pour réfléchir davantage et fournir des réponses encore meilleures aux problèmes les plus difficiles », a déclaré un porte-parole d'OpenAI. « Après avoir reçu de nombreuses demandes de la part de notre communauté de développeurs, nous sommes ravis de l'intégrer à l'API afin d'offrir des réponses encore plus fiables. »
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">o1-pro now available in API <a href="https://twitter.com/benhylak?ref_src=twsrc%5Etfw">@benhylak</a> <a href="https://twitter.com/literallyhimmmm?ref_src=twsrc%5Etfw">@literallyhimmmm</a> <a href="https://twitter.com/shl?ref_src=twsrc%5Etfw">@shl</a> <a href="https://twitter.com/joshRnold?ref_src=twsrc%5Etfw">@joshRnold</a> <a href="https://twitter.com/samgoodwin89?ref_src=twsrc%5Etfw">@samgoodwin89</a> <a href="https://twitter.com/byamadaro1013?ref_src=twsrc%5Etfw">@byamadaro1013</a> <a href="https://twitter.com/adonis_singh?ref_src=twsrc%5Etfw">@adonis_singh</a> <a href="https://twitter.com/alecvxyz?ref_src=twsrc%5Etfw">@alecvxyz</a> <a href="https://twitter.com/StonkyOli?ref_src=twsrc%5Etfw">@StonkyOli</a> <a href="https://twitter.com/gabrielchua_?ref_src=twsrc%5Etfw">@gabrielchua_</a> <a href="https://twitter.com/UltraRareAF?ref_src=twsrc%5Etfw">@UltraRareAF</a> <a href="https://twitter.com/yukimasakiyu?ref_src=twsrc%5Etfw">@yukimasakiyu</a> <a href="https://twitter.com/theemao?ref_src=twsrc%5Etfw">@theemao</a> <a href="https://twitter.com/curious_vii?ref_src=twsrc%5Etfw">@curious_vii</a><br><br>It uses more compute than o1 to provide consistently better responses. Available… <a href="https://t.co/Iub6tp1NTi">pic.twitter.com/Iub6tp1NTi</a></p>— OpenAI Developers (@OpenAIDevs) <a href="https://twitter.com/OpenAIDevs/status/1902485690958450871?ref_src=twsrc%5Etfw">March 19, 2025</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Pourtant, les premières impressions d'o1-pro, qui est disponible sur la plateforme de chatbot IA d'OpenAI, ChatGPT, pour les abonnés ChatGPT Pro depuis décembre, n'ont pas été incroyablement positives. Les utilisateurs ont constaté que le modèle avait du mal avec les puzzles Sudoku et qu'il se laissait surprendre par de simples blagues sur les illusions d'optique.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">o1 and o1-pro both failed here, probably still because of the vision limitations (the same with Sudoku puzzles)<a href="https://t.co/mAVK7WxBrq">https://t.co/mAVK7WxBrq</a> <a href="https://t.co/O9boSv7ZGt">pic.twitter.com/O9boSv7ZGt</a></p>— Tibor Blaho (@btibor91) <a href="https://twitter.com/btibor91/status/1864799141714629074?ref_src=twsrc%5Etfw">December 5, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
« J'ai demandé à ChatGPT o1 Pro Mode de créer un SVG d'une licorne (C'est le modèle auquel vous avez accès pour 200$ par mois) »
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">I asked ChatGPT o1 Pro Mode to create an SVG of a unicorn.<br><br>(This is the model you get access to for $200 monthly) <a href="https://t.co/h9HwY3aYwU">pic.twitter.com/h9HwY3aYwU</a></p>— Rammy (@rammydev) <a href="https://twitter.com/rammydev/status/1864786263980626202?ref_src=twsrc%5Etfw">December 5, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
De nombreuses personnes sur X ne semblaient pas convaincues que les réponses du mode o1 pro étaient de niveau 200 $ : « OpenAI a-t-elle donné des exemples concrets d'invites qui échouent dans o1 normal mais réussissent dans o1-pro ? », a demandé l'informaticien britannique Simon Willison. « Je veux voir un seul exemple concret qui montre son avantage »....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.