IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1 : o1-pro est son LLM le plus coûteux à ce jour
Et est disponible dans son API pour développeurs

Le , par Stéphane le calme

26PARTAGES

6  0 
OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1 : o1-pro est son LLM le plus coûteux à ce jour
et est disponible dans son API pour développeurs

Actuellement, ce modèle est uniquement accessible aux développeurs ayant investi au minimum cinq dollars dans les services API d'OpenAI. Le coût est établi à 150 dollars pour chaque million de jetons. Cela représente 750 000 mots saisis et un coût de 600 dollars pour chaque million de jetons produits. Ceci fait de o1-pro le modèle le plus onéreux à l'heure actuelle. OpenAI a multiplié par deux le coût de GPT-4.5 (75 dollars pour un million de tokens) pour o1-pro, le rendant dix fois plus onéreux que le modèle standard o1 (15 dollars pour un million de tokens). Pour ce tarif, on ne bénéficie que d'une puissance de calcul accrue, donc des réponses plus performantes. Les spécifications, quant à elles, ressemblent à celles de o1.

OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1, o1-pro, dans son API pour développeurs. Selon OpenAI, o1-pro utilise plus de puissance de calcul que o1 pour fournir « des réponses toujours meilleures ». Actuellement, il n'est disponible que pour certains développeurs (ceux qui ont dépensé au moins 5 dollars pour les services API d'OpenAI) et son prix est élevé... très élevé : OpenAI facture 150 dollars par million de jetons (~750 000 mots) introduits dans le modèle et 600 dollars par million de jetons générés par le modèle. C'est deux fois le prix du GPT-4.5 d'OpenAI pour l'entrée et 10 fois le prix de l'o1 normal.


OpenAI fait le pari que les performances améliorées d'o1-pro convaincront les développeurs de payer ces sommes astronomiques.

« O1-pro dans l'API est une version d'o1 qui utilise plus de calcul pour réfléchir davantage et fournir des réponses encore meilleures aux problèmes les plus difficiles », a déclaré un porte-parole d'OpenAI. « Après avoir reçu de nombreuses demandes de la part de notre communauté de développeurs, nous sommes ravis de l'intégrer à l'API afin d'offrir des réponses encore plus fiables. »

Pourtant, les premières impressions d'o1-pro, qui est disponible sur la plateforme de chatbot IA d'OpenAI, ChatGPT, pour les abonnés ChatGPT Pro depuis décembre, n'ont pas été incroyablement positives. Les utilisateurs ont constaté que le modèle avait du mal avec les puzzles Sudoku et qu'il se laissait surprendre par de simples blagues sur les illusions d'optique.

« J'ai demandé à ChatGPT o1 Pro Mode de créer un SVG d'une licorne (C'est le modèle auquel vous avez accès pour 200$ par mois) »

De nombreuses personnes sur X ne semblaient pas convaincues que les réponses du mode o1 pro étaient de niveau 200 $ : « OpenAI a-t-elle donné des exemples concrets d'invites qui échouent dans o1 normal mais réussissent dans o1-pro ? », a demandé l'informaticien britannique Simon Willison. « Je veux voir un seul exemple concret qui montre son avantage ».

En outre, certains tests internes d'OpenAI réalisés à la fin de l'année dernière ont montré que o1-pro n'était que légèrement plus performant que o1 standard pour les problèmes de codage et de mathématiques. Il a toutefois répondu à ces problèmes de manière plus fiable, selon ces tests.


Les tests internes d'OpenAI montrent que le mode pro d'o1 est à peine plus performant que le mode standard d'o1 pour les problèmes de codage et de mathématiques


OpenAI a effectué une évaluation « plus stricte » sur les mêmes benchmarks afin de démontrer la cohérence de o1 pro mode : le modèle n'était considéré comme ayant résolu une question que s'il obtenait la bonne réponse quatre fois sur quatre. Mais même dans ces tests, les améliorations n'étaient pas spectaculaires

S'il fallait illustrer l'utilisation d'o1-pro et son impact potentiel en termes de dépense, penchons nous sur le billet de Simon Willison qui s'est servi du LLM pour dessiner un pélican sur une bicyclette dont voici un extrait :

Citation Envoyé par Simon Willison
OpenAI a un nouveau modèle très cher : o1-pro est désormais accessible via son API au prix élevé de 150 millions de tokens en entrée et 600 millions de tokens en sortie. C'est 10 fois le prix de leurs modèles o1 et o1-preview et 1 000 fois plus cher que leur modèle le moins cher, gpt-4o-mini !

A part cela, il a pratiquement les mêmes caractéristiques que o1 : une fenêtre contextuelle de 200 000 tokens, 100 000 tokens de sortie maximum, la date limite de connaissance du 30 septembre 2023 et il supporte l'appel de fonction, les sorties structurées et les entrées d'images.

o1-pro ne prend pas en charge le streaming et, plus important encore pour les développeurs, c'est le premier modèle OpenAI à n'être disponible que via leur nouvelle API Responses. Cela signifie que les outils qui sont construits à partir de leur API Chat Completions (comme mon propre LLM) doivent faire beaucoup plus de travail pour supporter le nouveau modèle.

Comme LLM ne supporte pas encore ce nouveau modèle, j'ai dû me contenter de curl :

Code cURL : Sélectionner tout
1
2
3
4
5
6
7
curl https://api.openai.com/v1/responses \ 
  -H "Content-Type: application/json" \ 
  -H "Authorization: Bearer $(llm keys get openai)" \ 
  -d '{ 
    "model": "o1-pro", 
    "input": "Generate an SVG of a pelican riding a bicycle" 
  }'

La menace de la reproductibilité par la distillation

De façon brossée, la distillation des modèles, ou knowledge distillation, est une méthode permettant de transférer les connaissances d’un modèle volumineux (appelé modèle professeur) vers un modèle plus petit (modèle étudiant). L’objectif est de capturer l’essence des performances du modèle initial tout en diminuant la complexité computationnelle et les coûts associés. Bien sûr, en pratique, ce n'est pas aussi simple mais l'idée ici est d'expliquer le principe.

Cette approche repose sur plusieurs principes :
  • Transfert de connaissances implicite : Le modèle professeur entraîne le modèle étudiant en lui fournissant non seulement les bonnes réponses, mais aussi des indications sur la manière dont il prend ses décisions.
  • Réduction des besoins en calcul : Un modèle plus petit consomme moins d’énergie et nécessite moins de puissance de calcul, le rendant plus accessible.
  • Maintien des performances : Grâce à des techniques avancées de distillation, les modèles étudiants peuvent atteindre des résultats comparables à ceux des modèles professeurs avec une fraction de leur taille initiale.


Depuis longtemps, les dépenses massives des géants de la technologie en matière d'intelligence artificielle suscitent des inquiétudes.

Et pourtant, le 20 janvier, DeepSeek, dirigé par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, a publié le modèle d'IA R1 sous une licence MIT ouverte, la plus grande version contenant 671 milliards de paramètres. Elle a pris la Silicon Valley et tout le monde de l'IA par surprise, car, selon un document rédigé par l'entreprise, DeepSeek-R1 bat les principaux modèles du secteur, comme OpenAI o1, sur plusieurs critères mathématiques et de raisonnement.

En fait, sur de nombreux critères importants (capacité, coût, ouverture), DeepSeek donne du fil à retordre aux géants occidentaux de l'IA. DeepSeek affirme avoir créé un modèle de niveau o1 qui fonctionne à 95 % du coût. Si o1 coûte 15 $ par million de jetons d'entrée et 60 $ par million de jetons de sortie (un jeton représente environ 4 caractères), DeepSeek est estimé à environ 0,55 $ et 2,19 $ par million de jetons d'entrée et de sortie, respectivement.

DeepSeek peut fonctionner sur des puces moins avancées. Dans un article publié fin décembre, les chercheurs de DeepSeek ont estimé qu'ils avaient construit et entraîné leur modèle V3 pour moins de 6 millions de dollars en utilisant environ 2 000 puces Nvidia H800. Les informations publiées par DeepSeek ont créé la panique sur le marché. Les investisseurs semblent se demander si la demande pour les puces haut de gamme de Nvidia n'est pas exagérée.

DeepSeek a attiré l’attention en lançant des modèles de langage optimisés grâce à la distillation. En combinant cette approche avec d’autres techniques d’optimisation, DeepSeek a prouvé qu’il est possible de créer des modèles plus légers et efficaces sans sacrifier la qualité des réponses générées.


Un modèle économique plus viable pour l’IA

L’une des conséquences majeures de cette avancée est la diminution des coûts d’exploitation des modèles d’IA. Jusqu’à présent, les grandes entreprises comme OpenAI, Google et Meta investissaient des sommes colossales dans des modèles massifs nécessitant des infrastructures complexes et énergivores. Avec la distillation, il devient possible de proposer des alternatives plus économiques et accessibles aux petites entreprises et startups, qui ne disposent pas des mêmes moyens financiers.

Bien que la distillation soit largement utilisée depuis des années, les progrès récents ont conduit les experts de l'industrie à penser que le processus sera de plus en plus une aubaine pour les start-ups qui cherchent des moyens rentables de créer des applications basées sur la technologie.

« La distillation est tout à fait magique », a déclaré Olivier Godement, responsable des produits pour la plateforme OpenAI. « Il s'agit d'un processus qui consiste essentiellement à prendre un très grand modèle de pointe et à l'utiliser pour enseigner un modèle plus petit[...] très performant dans des tâches spécifiques et dont l'exécution est très bon marché et très rapide ».

Sources : OpenAI, Simon Willison

Et vous ?

Qu'en pensez-vous ? Seriez-vous prêt à débourser autant pour vous servir de ce modèle pro même si les premiers retours n'ont pas fait état d'une différence nette ?

Le prix vous semble-t-il justifié ? Dans quelle mesure ?

La distillation représente-t-elle une menace sérieuse pour les LLM d'OpenAI ? Pourquoi ?

Voir aussi :

Le modèle de raisonnement d'OpenAI « pense » souvent en chinois : Personne ne peut expliquer pourquoi

Des chercheurs chinois viennent de percer les secrets de l'AGI d'OpenAI, avec un plan détaillé qui révèle comment recréer les capacités de raisonnement du modèle o1 d'OpenAI à partir de zéro
Vous avez lu gratuitement 825 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !