IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

DeepSeek-v3.2 : la nouvelle IA chinoise repousse les limites des LLM open source et rivalise avec les modèles de pointe américains GPT-5 d'OpenAI et de Gemini-3 Pro de Google
Sur les benchmarks de références

Le , par Mathis Lucas

133PARTAGES

6  0 
La startup chinoise DeepSeek lance deux nouveaux modèles : DeepSeek-V3.2 et DeepSeek-V3.2-Speciale. Ces modèles sont conçus pour mettre fin à la domination de GPT-5 d'OpenAI et de Gemini-3 Pro de Google. DeepSeek-V3.2 est un modèle open source conçu pour combiner hautes capacités de raisonnement et efficacité computationnelle. L’objectif de DeepSeek est d’offrir un modèle capable de résoudre des problèmes complexes (mathématiques, code, planification), d’exécuter des tâches de type agent, tout en restant moins coûteux que les modèles américains. Dans plusieurs tests mathématiques, le modèle chinois bat ceux de Google et OpenAI.

Dans la soirée du 1er décembre 2025, DeepSeek a déployé une mise à jour : la version V3.2 a été officiellement lancée et mise à la disposition de tous les utilisateurs. D'après les résultats des tests publiés par le responsable, la capacité d'inférence de DeepSeek V3.2 est pratiquement équivalente à celle de GPT-5 d'OpenAI, mais son coût est bien inférieur à celui de GPT-5. Ce simple fait a suffi à enthousiasmer de nombreuses personnes sur la toile.

En début d'année, DeepSeek avait déjà provoqué un séisme avec son modèle open source économe R1. DeepSeek-R1, développé pour une fraction du coût de ses homologues américains, avait obtenu d'excellents scores sur les différents benchmarks, notamment en mathématiques, code et raisonnement. L'entreprise chinoise semble rééditer le même exploit avec son nouveau modèle DeepSeek-V3.2 et sa variante plus évoluée, DeepSeek-V3.2-Speciale.


DeepSeek-V3.2 est conçu comme un assistant de raisonnement quotidien, tandis que DeepSeek-V3.2-Speciale est présenté comme une variante très puissante. Selon les résultats des tests, ce dernier a remporté la médaille d'or dans quatre compétitions internationales d'élite : les Olympiades internationales de mathématiques 2025, les Olympiades internationales d'informatique, les finales mondiales ICPC et les Olympiades mathématiques chinoises.

Cette sortie a des implications profondes pour le leadership technologique américain. DeepSeek a une fois de plus démontré qu'il est capable de produire des systèmes d'IA de pointe malgré les contrôles à l'exportation américains qui limitent l'accès de la Chine aux puces avancées de Nvidia.

« Les gens pensaient que DeepSeek avait réalisé une percée ponctuelle, mais nous sommes revenus en force », a écrit Chen Fang, qui s'est présenté comme un contributeur au projet, dans un message sur X (ex-Twitter). Cette annonce a suscité de vives réactions en ligne, un utilisateur s'exclamant : « repose en paix, ChatGPT ». Il faut souligner que DeepSeek continue de rendre ses modèles librement accessibles sous une licence open source du MIT.

L’innovation principale : une nouvelle forme d’attention de l'IA

Au cœur de cette nouvelle version se trouve DeepSeek Sparse Attention, ou DSA, une innovation architecturale novatrice qui réduit considérablement la charge de calcul nécessaire à l'exécution de modèles sur des documents longs et des tâches complexes. Là où un modèle classique détermine les liens entre tous les mots d’un texte (ou d'un prompt), V3.2 utilise un « indexeur éclair » qui ne sélectionne que les informations pertinentes avant de les traiter.


Concrètement, les mécanismes traditionnels d'attention de l'IA, technologie fondamentale permettant aux modèles linguistiques de comprendre le contexte, s'adaptent mal à l'augmentation de la longueur des entrées. Le traitement d'un document deux fois plus long nécessite généralement quatre fois plus de calculs. L'approche de DeepSeek-V3.2 contourne cette contrainte grâce à une technologie que l'entreprise chinoise appelle un « indexeur éclair ».

L'indexeur éclair identifie uniquement les parties les plus pertinentes du contexte pour chaque prompt, en ignorant le reste. Selon le rapport technique de DeepSeek, ce mécanisme (DSA) réduit les coûts d'inférence d'environ la moitié par rapport aux modèles précédents lors du traitement de longues séquences. « L'architecture réduit considérablement la complexité computationnelle tout en préservant les performances du modèle », indique le rapport.

DeepSeek ajoute que le traitement de 128 000 tokens (jetons), soit l'équivalent d'un livre de 300 pages, coûte désormais environ 0,70 dollar par million de tokens pour le décodage, contre 2,40 dollars pour le modèle précédent V3.1-Terminus. Cela représente une réduction de 70 % des coûts d'inférence.

Les modèles à 685 milliards de paramètres prennent en charge des fenêtres contextuelles de 128 000 tokens, ce qui les rend adaptés à l'analyse de documents volumineux, de bases de code et d'articles de recherche. DeepSeek note aussi que des évaluations sur des benchmarks à contexte long montrent que V3.2 offre des performances équivalentes ou supérieures à celles de V3.1-Terminus, « malgré l'intégration d'un mécanisme d'attention clairsemé ».

DeepSeek rivalise avec OpenAI et Google sur les benchmarks

DeepSeek a évalué ses modèles des tâches mathématiques, de codage et de raisonnement, et les chiffres sont impressionnants. Lors du test AIME 2025, un prestigieux concours américain de mathématiques, DeepSeek-V3.2-Speciale a obtenu un taux de réussite de 96,0 %, contre 94,6 % pour GPT-5-High et 95,0 % pour Gemini-3.0-Pro. Lors du tournoi de mathématiques Harvard-MIT, il a obtenu un score de 99,2 %, surpassant les 97,5 % de Gemini.


Le modèle standard V3.2, optimisé pour une utilisation quotidienne, a obtenu un score de 93,1 % à l'AIME et de 92,5 % au HMMT, soit légèrement en dessous des modèles de pointe, mais avec des ressources informatiques nettement inférieures. Ces résultats ont été obtenus sans accès à Internet ni outils pendant les tests. Le rapport technique de DeepSeek note aussi que « les tests respectent strictement les limites de temps et de tentatives du concours ».

En matière de codage, DeepSeek-V3.2 a résolu 73,1 % des bogues logiciels réels sur SWE-Verified, ce qui est comparable aux 74,9 % de GPT-5-High. Sur Terminal Bench 2.0, qui mesure les workflows de codage complexes, DeepSeek a obtenu un score de 46,4 %, bien supérieur aux 35,2 % de GPT-5-High.

Les résultats des concours sont particulièrement frappants. DeepSeek-V3.2-Speciale a obtenu 35 points sur 42 lors des Olympiades internationales de mathématiques 2025, remportant ainsi la médaille d'or. Lors des Olympiades internationales d'informatique, il a obtenu 492 points sur 600, également la médaille d'or, se classant 10e au classement général. Le modèle a résolu 10 des 12 problèmes lors de la finale mondiale de l'ICPC, se classant deuxième.

DeepSeek reconnaît certaines limites. « L'efficacité des jetons reste un défi », indique le rapport technique de la startup, soulignant que « DeepSeek nécessite généralement des trajectoires de génération plus longues pour égaler la qualité de sortie de Gemini-3.0-Pro ». Un commentateur a déclaré : « il faut leur rendre hommage pour leurs efforts continus en matière d'amélioration, leur rentabilité et leur volonté de partager publiquement leurs progrès ».

Apprendre à l’IA à « réfléchir » tout en utilisant des outils tiers

Au-delà du raisonnement brut, DeepSeek-V3.2 introduit ce qu'il appelle « thinking in tool-use », c'est-à-dire la capacité à raisonner sur des problèmes tout en exécutant simultanément du code, en effectuant des recherches sur le Web et en manipulant des fichiers. Selon certains analystes, il s'agit d'une avancée majeure dans le domaine de l'IA, mais cela ne garantit pas que toutes les tâches seront réussies, ou que le modèle sera parfait dans tous les cas.

Pour rappel, les modèles d'IA précédents étaient...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 03/12/2025 à 18:14
Le coût d'inférence est en n².
La réduction qu'ils opèrent est en 1/2 si j'ai bien compris.
Autant dire que ça ne change pas grand chose.

Par contre la reprise du raisonnement ça c'est cool. Parce que d'un appel à l'autre le modèle redit des trucs en boucle à cause du restart du raisonnement, genre "Let's see what the user is requesting. (bla bla qui résume ce qu'il a déjà résumé à l'appel précédent)". C'est long à générer et ça consomme du contexte. Si la reprise permet de couper court aux répétitions c'est du contexte et du temps de gagné. Et possiblement des "boucles infinies" en moins.
1  0