IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1 : o1-pro est son LLM le plus coûteux à ce jour
Et est disponible dans son API pour développeurs

Le , par Stéphane le calme

12PARTAGES

6  0 
Actuellement, ce modèle est uniquement accessible aux développeurs ayant investi au minimum cinq dollars dans les services API d'OpenAI. Le coût est établi à 150 dollars pour chaque million de jetons. Cela représente 750 000 mots saisis et un coût de 600 dollars pour chaque million de jetons produits. Ceci fait de o1-pro le modèle le plus onéreux à l'heure actuelle. OpenAI a multiplié par deux le coût de GPT-4.5 (75 dollars pour un million de tokens) pour o1-pro, le rendant dix fois plus onéreux que le modèle standard o1 (15 dollars pour un million de tokens). Pour ce tarif, on ne bénéficie que d'une puissance de calcul accrue, donc des réponses plus performantes. Les spécifications, quant à elles, ressemblent à celles de o1.

OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1, o1-pro, dans son API pour développeurs. Selon OpenAI, o1-pro utilise plus de puissance de calcul que o1 pour fournir « des réponses toujours meilleures ». Actuellement, il n'est disponible que pour certains développeurs (ceux qui ont dépensé au moins 5 dollars pour les services API d'OpenAI) et son prix est élevé... très élevé : OpenAI facture 150 dollars par million de jetons (~750 000 mots) introduits dans le modèle et 600 dollars par million de jetons générés par le modèle. C'est deux fois le prix du GPT-4.5 d'OpenAI pour l'entrée et 10 fois le prix de l'o1 normal.


OpenAI fait le pari que les performances améliorées d'o1-pro convaincront les développeurs de payer ces sommes astronomiques.

« O1-pro dans l'API est une version d'o1 qui utilise plus de calcul pour réfléchir davantage et fournir des réponses encore meilleures aux problèmes les plus difficiles », a déclaré un porte-parole d'OpenAI. « Après avoir reçu de nombreuses demandes de la part de notre communauté de développeurs, nous sommes ravis de l'intégrer à l'API afin d'offrir des réponses encore plus fiables. »

Pourtant, les premières impressions d'o1-pro, qui est disponible sur la plateforme de chatbot IA d'OpenAI, ChatGPT, pour les abonnés ChatGPT Pro depuis décembre, n'ont pas été incroyablement positives. Les utilisateurs ont constaté que le modèle avait du mal avec les puzzles Sudoku et qu'il se laissait surprendre par de simples blagues sur les illusions d'optique.

« J'ai demandé à ChatGPT o1 Pro Mode de créer un SVG d'une licorne (C'est le modèle auquel vous avez accès pour 200$ par mois) »

De nombreuses personnes sur X ne semblaient pas convaincues que les réponses du mode o1 pro étaient de niveau 200 $ : « OpenAI a-t-elle donné des exemples concrets d'invites qui échouent dans o1 normal mais réussissent dans o1-pro ? », a demandé l'informaticien britannique Simon Willison. « Je veux voir un seul exemple concret qui montre son avantage ».

En outre, certains tests internes d'OpenAI réalisés à la fin de l'année dernière ont montré que o1-pro n'était que légèrement plus performant que o1 standard pour les problèmes de codage et de mathématiques. Il a toutefois répondu à ces problèmes de manière plus fiable, selon ces tests.


Les tests internes d'OpenAI montrent que le mode pro d'o1 est à peine plus performant que le mode standard d'o1 pour les problèmes de codage et de mathématiques


OpenAI a effectué une évaluation « plus stricte » sur les mêmes benchmarks afin de démontrer la cohérence de o1 pro mode : le modèle n'était considéré comme ayant résolu une question que s'il obtenait la bonne réponse quatre fois sur quatre. Mais même dans ces tests, les améliorations n'étaient pas spectaculaires

S'il fallait illustrer l'utilisation d'o1-pro et son impact potentiel en termes de dépense, penchons nous sur le billet de Simon Willison qui s'est servi du LLM pour dessiner un pélican sur une bicyclette dont voici un extrait :

Citation Envoyé par Simon Willison
OpenAI a un nouveau modèle très cher : o1-pro est désormais accessible via son API au prix élevé de 150 millions de tokens en entrée et 600 millions de tokens en sortie. C'est 10 fois le prix de leurs modèles o1 et o1-preview et 1 000 fois plus cher que leur modèle le moins cher, gpt-4o-mini !

A part cela, il a pratiquement les mêmes caractéristiques que o1 : une fenêtre contextuelle de 200 000 tokens, 100 000 tokens de sortie maximum, la date limite de connaissance du 30 septembre 2023 et il supporte l'appel de fonction, les sorties structurées et les entrées d'images.

o1-pro ne prend pas en charge le streaming et, plus important encore pour les développeurs, c'est le premier modèle OpenAI à n'être disponible que via leur nouvelle API Responses. Cela signifie que les outils qui sont construits à partir de leur API Chat Completions (comme mon propre LLM) doivent faire beaucoup plus de travail pour supporter le nouveau modèle.

Comme LLM ne supporte pas encore ce nouveau modèle, j'ai dû me contenter de curl :

Code cURL : Sélectionner tout
1
2
3
4
5
6
7
curl https://api.openai.com/v1/responses \ 
  -H "Content-Type: application/json" \ 
  -H "Authorization: Bearer $(llm keys get openai)" \ 
  -d '{ 
    "model": "o1-pro", 
    "input": "Generate an SVG of a pelican riding a bicycle" 
  }'

La menace de la reproductibilité par la distillation

De façon brossée, la distillation des modèles, ou knowledge distillation, est une méthode permettant de transférer les connaissances d’un modèle volumineux (appelé modèle professeur) vers un modèle plus petit (modèle étudiant). L’objectif est de capturer l’essence des performances du modèle initial tout en diminuant la complexité computationnelle et les coûts associés. Bien sûr, en pratique, ce n'est pas aussi simple mais l'idée ici est d'expliquer le principe.

Cette approche repose sur plusieurs principes :
  • Transfert de connaissances implicite : Le modèle professeur entraîne le modèle étudiant en lui fournissant non seulement les bonnes réponses, mais aussi des indications sur la manière dont il prend ses décisions.
  • Réduction des besoins en calcul : Un modèle plus petit consomme moins d’énergie et nécessite moins de puissance de calcul, le rendant plus accessible.
  • Maintien des performances : Grâce à des techniques avancées de distillation, les modèles étudiants peuvent atteindre des résultats comparables à ceux des modèles professeurs avec une fraction de leur taille initiale.


Depuis longtemps, les dépenses massives des géants de la technologie en matière d...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !