IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs ont créé un équivalent open source au modèle de « raisonnement » o1 d'OpenAI pour moins de 50 $,
En utilisant la méthode controversée de « distillation » désapprouvée par certains Big Tech

Le , par Mathis Lucas

4PARTAGES

14  0 
Des chercheurs ont créé un équivalent open source au modèle de « raisonnement » o1 d'OpenAI pour moins de 50 $
en utilisant la méthode controversée de « distillation » désapprouvée par certains Big Tech

Une équipe de chercheurs de l'université de Stanford et de l'université de Washington annonce avoir formé un modèle d'IA axé sur le raisonnement en moins d'une demi-heure et pour moins de 50 $. Le modèle, appelé s1, serait à la hauteur de certains des meilleurs modèles de l'industrie, comme o1 d'OpenAI et R1 de la startup chinoise DeepSeek, en particulier en ce qui concerne les compétences en mathématique et en codage. L'équipe a utilisé la « distillation » pour puiser dans le modèle Gemini de Google axé sur le raisonnement. L'arrivée des modèles à bas coûts et très performants ne plaît toutefois pas aux Big Tech, qui désapprouvent la méthode de distillation.

Des chercheurs ont formé un rival du modèle o1 d'OpenAI pour moins de 50 $

Les chercheurs ont présenté le modèle s1 dans un article publié au début du mois. L'article explique que l'équipe a utilisé une méthode connue sous le nom de « distillation » pour affiner s1 en utilisant les réponses du modèle de Google axé sur le raisonnement, Gemini 2.0 Flash Thinking Experimental. L'équipe cherchait l'approche la plus simple pour obtenir de bonnes performances en matière de raisonnement ainsi qu'une « mise à l'échelle du temps de test ».

En d'autres termes, l'équipe cherchait un moyen de permettre au modèle de « réfléchir » davantage avant de répondre à une question. Le modèle s1 utilise une technique appelée « test-time scaling », qui permet au modèle de « réfléchir » plus longtemps avant de produire une réponse. Comme l'expliquent les chercheurs dans l'article, ils ont également forcé le modèle à poursuivre son raisonnement en ajoutant la mention « Wait » à la réponse du modèle.



« Cela peut conduire le modèle à revérifier sa réponse, souvent en corrigeant des étapes de raisonnement incorrectes », indique l'article. Il s'agit là de quelques-unes des percées réalisées dans le cadre du projet o1 d'OpenAI, que DeepSeek et d'autres ont tenté de reproduire par le biais de diverses techniques.

Dans le domaine des grands modèles de langage (LLM), la distillation est le processus de transfert de connaissances d'un grand modèle à un modèle plus petit. Selon plusieurs rapports récents, la startup chinoise DeepSeek a distillé des connaissances à partir des modèles d'OpenAI pour former son modèle d'IA R1.

Selon l'article, les modèles axés sur le raisonnement peuvent être distillés à partir d'un ensemble de données restreint en utilisant un processus appelé réglage fin supervisé (Supervised Fine-Tuning - SFT), dans lequel un modèle est explicitement chargé d'imiter certains comportements dans un ensemble de données.

Le réglage fin supervisé est généralement moins coûteux que la méthode l'apprentissage par renforcement (Reinforcement Learning - RL) de DeepSeek, qui oblige l'IA à trouver des solutions par elle-même. Selon les chercheurs, le réglage fin supervisé est également plus rapide et prend moins de temps.

Comment les chercheurs ont entraîné le modèle s1

Le modèle s1 est basé sur un petit modèle open source prêt à l'emploi du laboratoire d'IA chinois Qwen, propriété d'Alibaba. Pour entraîner s1, les chercheurs ont créé un ensemble de données composé de 59 000 questions, mais ont constaté que cet ensemble de données volumineux n'offrait pas de « gains substantiels ». Ils sont donc revenus à un ensemble de données plus petit de 1 000 questions. L'équipe dit avoir entraîné s1 sur 16 GPU Nvidia H100.

Comme souligné plus haut, les chercheurs ont affiné le modèle s1 en utilisant la dernière version de Gemini 2.0 Flash Experimental de Google, un outil gratuit, mais avec des limites tarifaires journalières. La plateforme permet aux développeurs d'exploiter tout le potentiel de Gemini, y compris les capacités multimodales telles que le traitement de texte, de l'audio et de l'image, ce qui en fait un outil puissant pour l'entraînement de modèles comme S1.

Après l'entraînement de s1, qui a pris moins de 30 minutes, le modèle a affiché d'excellentes performances sur certains benchmarks. Niklas Muennighoff, un chercheur de Stanford qui a travaillé sur le projet, a déclaré à TechCrunch qu'il pourrait louer le calcul nécessaire aujourd'hui pour environ 20 $. Le modèle s1, ainsi que toutes les données et le code utilisés pour l'entraîner, sont disponibles sur GitHub et peuvent être testés par tous.

L'équipe a déclaré : « les avancées récentes en matière de raisonnement, telles que o1 d'OpenAI et R1 de DeepSeek, manquent de transparence, ce qui limite les progrès de la recherche. Notre travail vise à repousser les frontières du raisonnement de manière totalement ouverte, en encourageant l'innovation et la collaboration afin d'accélérer les avancées qui profiteront finalement à la société ». Toutefois, leur étude soulève de nombreuses questions.

Les Big Tech désapprouvent la méthode de distillation de leurs modèles d'IA

La distillation est la même approche que celle utilisée par les chercheurs de Berkeley pour créer un modèle d'IA axé sur le raisonnement pour environ 450 $ en janvier. Pour certains, l'idée que quelques chercheurs ne disposant pas d'un budget de plusieurs millions de dollars puissent encore innover dans le domaine de l'IA est excitante. Cependant, selon certains analystes le modèle s1 soulève des questions sérieuses sur la banalisation des modèles d'IA.

Où est le fossé si quelqu'un peut reproduire fidèlement un modèle de plusieurs millions de dollars avec un peu d'argent de poche ? Sans surprise, les grands laboratoires d'IA ne sont pas contents. OpenAI a accusé DeepSeek de récolter indûment des données de son API à des fins de distillation de modèles.

David Sacks, le nouveau « tsar » de l'IA et des cryptomonnaies du président américain Donald Trump, a également déclaré : « il existe des preuves substantielles que DeepSeek a distillé des connaissances à partir des modèles d'OpenAI, et je ne pense pas qu'OpenAI soit très heureux à ce sujet. Je pense que l'une des choses...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 06/02/2025 à 23:05
Citation Envoyé par Mathis Lucas Voir le message
Des chercheurs ont créé un équivalent open source au modèle de « raisonnement » o1 d'OpenAI pour moins de 50 $
Finalement, c'est peut-être ça, la meilleure manière de dégonfler cette bulle ridicule! Beaucoup d'IA concurrentes pour quelques dollars. Ça finirait par décourager tous les investisseurs!
6  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 07/02/2025 à 7:36
Je ne suis pas sur de comprendre, la distillation est la récupération partielle de données et du fonctionnement d'une IA plus grosse?
Ce qui révolte les grande IA qui se sentent pillées?
IA qui se révoltent après avoir piller tout ce qui a été produit et couvert par les droits d'auteurs?
6  0 
Avatar de
https://www.developpez.com
Le 06/02/2025 à 21:34
Palme d'or du trolling académique. J'en peux plus.
4  1 
Avatar de
https://www.developpez.com
Le 07/02/2025 à 16:16
Citation Envoyé par totozor Voir le message
Je ne suis pas sur de comprendre, la distillation est la récupération partielle de données et du fonctionnement d'une IA plus grosse?
Ce qui révolte les grande IA qui se sentent pillées?
IA qui se révoltent après avoir piller tout ce qui a été produit et couvert par les droits d'auteurs?
Tu as bien compris: les pilleurs se plaignent d'être pillés.
2  0