IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs ont créé un équivalent open source au modèle de « raisonnement » o1 d'OpenAI pour moins de 50 $,
En utilisant la méthode controversée de « distillation » désapprouvée par certains Big Tech

Le , par Mathis Lucas

90PARTAGES

14  0 
Une équipe de chercheurs de l'université de Stanford et de l'université de Washington annonce avoir formé un modèle d'IA axé sur le raisonnement en moins d'une demi-heure et pour moins de 50 $. Le modèle, appelé s1, serait à la hauteur de certains des meilleurs modèles de l'industrie, comme o1 d'OpenAI et R1 de la startup chinoise DeepSeek, en particulier en ce qui concerne les compétences en mathématique et en codage. L'équipe a utilisé la « distillation » pour puiser dans le modèle Gemini de Google axé sur le raisonnement. L'arrivée des modèles à bas coûts et très performants ne plaît toutefois pas aux Big Tech, qui désapprouvent la méthode de distillation.

Des chercheurs ont formé un rival du modèle o1 d'OpenAI pour moins de 50 $

Les chercheurs ont présenté le modèle s1 dans un article publié au début du mois. L'article explique que l'équipe a utilisé une méthode connue sous le nom de « distillation » pour affiner s1 en utilisant les réponses du modèle de Google axé sur le raisonnement, Gemini 2.0 Flash Thinking Experimental. L'équipe cherchait l'approche la plus simple pour obtenir de bonnes performances en matière de raisonnement ainsi qu'une « mise à l'échelle du temps de test ».

En d'autres termes, l'équipe cherchait un moyen de permettre au modèle de « réfléchir » davantage avant de répondre à une question. Le modèle s1 utilise une technique appelée « test-time scaling », qui permet au modèle de « réfléchir » plus longtemps avant de produire une réponse. Comme l'expliquent les chercheurs dans l'article, ils ont également forcé le modèle à poursuivre son raisonnement en ajoutant la mention « Wait » à la réponse du modèle.



« Cela peut conduire le modèle à revérifier sa réponse, souvent en corrigeant des étapes de raisonnement incorrectes », indique l'article. Il s'agit là de quelques-unes des percées réalisées dans le cadre du projet o1 d'OpenAI, que DeepSeek et d'autres ont tenté de reproduire par le biais de diverses techniques.

Dans le domaine des grands modèles de langage (LLM), la distillation est le processus de transfert de connaissances d'un grand modèle à un modèle plus petit. Selon plusieurs rapports récents, la startup chinoise DeepSeek a distillé des connaissances à partir des modèles d'OpenAI pour former son modèle d'IA R1.

Selon l'article, les modèles axés sur le raisonnement peuvent être distillés à partir d'un ensemble de données restreint en utilisant un processus appelé réglage fin supervisé (Supervised Fine-Tuning - SFT), dans lequel un modèle est explicitement chargé d'imiter certains comportements dans un ensemble de données.

Le réglage fin supervisé est généralement moins coûteux que la méthode l'apprentissage par renforcement (Reinforcement Learning - RL) de DeepSeek, qui oblige l'IA à trouver des solutions par elle-même. Selon les chercheurs, le réglage fin supervisé est également plus rapide et prend moins de temps.

Comment les chercheurs ont entraîné le modèle s1

Le modèle s1 est basé sur un petit modèle open source prêt à l'emploi du laboratoire d'IA chinois Qwen, propriété d'Alibaba. Pour entraîner s1, les chercheurs ont...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 06/02/2025 à 23:05
Citation Envoyé par Mathis Lucas Voir le message
Des chercheurs ont créé un équivalent open source au modèle de « raisonnement » o1 d'OpenAI pour moins de 50 $
Finalement, c'est peut-être ça, la meilleure manière de dégonfler cette bulle ridicule! Beaucoup d'IA concurrentes pour quelques dollars. Ça finirait par décourager tous les investisseurs!
6  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 07/02/2025 à 7:36
Je ne suis pas sur de comprendre, la distillation est la récupération partielle de données et du fonctionnement d'une IA plus grosse?
Ce qui révolte les grande IA qui se sentent pillées?
IA qui se révoltent après avoir piller tout ce qui a été produit et couvert par les droits d'auteurs?
6  0 
Avatar de
https://www.developpez.com
Le 06/02/2025 à 21:34
Palme d'or du trolling académique. J'en peux plus.
4  1 
Avatar de
https://www.developpez.com
Le 07/02/2025 à 16:16
Citation Envoyé par totozor Voir le message
Je ne suis pas sur de comprendre, la distillation est la récupération partielle de données et du fonctionnement d'une IA plus grosse?
Ce qui révolte les grande IA qui se sentent pillées?
IA qui se révoltent après avoir piller tout ce qui a été produit et couvert par les droits d'auteurs?
Tu as bien compris: les pilleurs se plaignent d'être pillés.
2  0