IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

DeepSeek-v3.2 : la nouvelle IA chinoise repousse les limites des LLM open source et rivalise avec les modèles de pointe américains GPT-5 d'OpenAI et de Gemini-3 Pro de Google
Sur les benchmarks de références

Le , par Mathis Lucas

6PARTAGES

3  0 
La startup chinoise DeepSeek lance deux nouveaux modèles : DeepSeek-V3.2 et DeepSeek-V3.2-Speciale. Ces modèles sont conçus pour mettre fin à la domination de GPT-5 d'OpenAI et de Gemini-3 Pro de Google. DeepSeek-V3.2 est un modèle open source conçu pour combiner hautes capacités de raisonnement et efficacité computationnelle. L’objectif de DeepSeek est d’offrir un modèle capable de résoudre des problèmes complexes (mathématiques, code, planification), d’exécuter des tâches de type agent, tout en restant moins coûteux que les modèles américains. Dans plusieurs tests mathématiques, le modèle chinois bat ceux de Google et OpenAI.

Dans la soirée du 1er décembre 2025, DeepSeek a déployé une mise à jour : la version V3.2 a été officiellement lancée et mise à la disposition de tous les utilisateurs. D'après les résultats des tests publiés par le responsable, la capacité d'inférence de DeepSeek V3.2 est pratiquement équivalente à celle de GPT-5 d'OpenAI, mais son coût est bien inférieur à celui de GPT-5. Ce simple fait a suffi à enthousiasmer de nombreuses personnes sur la toile.

En début d'année, DeepSeek avait déjà provoqué un séisme avec son modèle open source économe R1. DeepSeek-R1, développé pour une fraction du coût de ses homologues américains, avait obtenu d'excellents scores sur les différents benchmarks, notamment en mathématiques, code et raisonnement. L'entreprise chinoise semble rééditer le même exploit avec son nouveau modèle DeepSeek-V3.2 et sa variante plus évoluée, DeepSeek-V3.2-Speciale.


DeepSeek-V3.2 est conçu comme un assistant de raisonnement quotidien, tandis que DeepSeek-V3.2-Speciale est présenté comme une variante très puissante. Selon les résultats des tests, ce dernier a remporté la médaille d'or dans quatre compétitions internationales d'élite : les Olympiades internationales de mathématiques 2025, les Olympiades internationales d'informatique, les finales mondiales ICPC et les Olympiades mathématiques chinoises.

Cette sortie a des implications profondes pour le leadership technologique américain. DeepSeek a une fois de plus démontré qu'il est capable de produire des systèmes d'IA de pointe malgré les contrôles à l'exportation américains qui limitent l'accès de la Chine aux puces avancées de Nvidia.

« Les gens pensaient que DeepSeek avait réalisé une percée ponctuelle, mais nous sommes revenus en force », a écrit Chen Fang, qui s'est présenté comme un contributeur au projet, dans un message sur X (ex-Twitter). Cette annonce a suscité de vives réactions en ligne, un utilisateur s'exclamant : « repose en paix, ChatGPT ». Il faut souligner que DeepSeek continue de rendre ses modèles librement accessibles sous une licence open source du MIT.

L’innovation principale : une nouvelle forme d’attention de l'IA

Au cœur de cette nouvelle version se trouve DeepSeek Sparse Attention, ou DSA, une innovation architecturale novatrice qui réduit considérablement la charge de calcul nécessaire à l'exécution de modèles sur des documents longs et des tâches complexes. Là où un modèle classique détermine les liens entre tous les mots d’un texte (ou d'un prompt), V3.2 utilise un « indexeur éclair » qui ne sélectionne que les informations pertinentes avant de les traiter.


Concrètement, les mécanismes traditionnels d'attention de l'IA, technologie fondamentale permettant aux modèles linguistiques de comprendre le contexte, s'adaptent mal à l'augmentation de la longueur des entrées. Le traitement d'un document deux fois plus long nécessite généralement quatre fois plus de calculs. L'approche de DeepSeek-V3.2 contourne cette contrainte grâce à une technologie que l'entreprise chinoise appelle un « indexeur éclair ».

L'indexeur éclair identifie uniquement les parties les plus pertinentes du contexte pour chaque prompt, en ignorant le reste. Selon le rapport technique de DeepSeek, ce mécanisme (DSA) réduit les coûts d'inférence d'environ la moitié par rapport aux modèles précédents lors du traitement de longues séquences. « L'architecture réduit considérablement la complexité computationnelle tout en préservant les performances du modèle », indique le rapport.

DeepSeek ajoute que le traitement de 128 000 tokens (jetons), soit l'équivalent d'un livre de 300 pages, coûte désormais environ 0,70 dollar par million de tokens pour le décodage, contre 2,40 dollars pour le modèle précédent V3.1-Terminus. Cela représente une réduction de 70 % des coûts d'inférence.

Les modèles à 685 milliards de paramètres prennent en charge des fenêtres contextuelles de 128 000 tokens, ce qui les rend adaptés à l'analyse de documents volumineux, de bases de code et d'articles de recherche. DeepSeek note aussi que des évaluations sur des benchmarks à contexte long montrent que V3.2 offre des performances équivalentes ou supérieures à celles de V3.1-Terminus, « malgré l'intégration d'un mécanisme d'attention clairsemé ».

DeepSeek rivalise avec OpenAI et Google sur les benchmarks

DeepSeek a évalué ses modèles des tâches mathématiques, de codage et de raisonnement, et les chiffres sont impressionnants. Lors du test AIME 2025, un prestigieux concours américain de mathématiques, DeepSeek-V3.2-Speciale a obtenu un taux de réussite de 96,0 %, contre 94,6 % pour GPT-5-High et 95,0 % pour Gemini-3.0-Pro. Lors du tournoi de mathématiques Harvard-MIT, il a obtenu un score de 99,2 %, surpassant les 97,5 % de Gemini.


Le modèle standard V3.2, optimisé pour une utilisation quotidienne, a obtenu un score de 93,1 % à l'AIME et de 92,5 % au HMMT, soit légèrement en dessous des modèles de pointe, mais avec des ressources informatiques nettement inférieures. Ces résultats ont été obtenus sans accès à Internet ni outils pendant les tests. Le rapport technique de DeepSeek note aussi que « les tests respectent strictement les limites de temps et de tentatives du concours ».

En matière de codage, DeepSeek-V3.2 a résolu 73,1 % des bogues logiciels réels sur SWE-Verified, ce qui est comparable aux 74,9 % de GPT-5-High. Sur Terminal Bench 2.0, qui mesure les workflows de codage complexes, DeepSeek a obtenu un score de 46,4 %, bien supérieur aux 35,2 % de GPT-5-High.

Les résultats des concours sont particulièrement frappants. DeepSeek-V3.2-Speciale a obtenu 35 points sur 42 lors des Olympiades internationales de mathématiques 2025, remportant ainsi la médaille d'or. Lors des Olympiades internationales d'informatique, il a obtenu 492 points sur 600, également la médaille d'or, se classant 10e au classement général. Le modèle a résolu 10 des 12 problèmes lors de la finale mondiale de l'ICPC, se classant deuxième.

DeepSeek reconnaît certaines limites. « L'efficacité des jetons reste un défi », indique le rapport technique de la startup, soulignant que « DeepSeek nécessite généralement des trajectoires de génération plus longues pour égaler la qualité de sortie de Gemini-3.0-Pro ». Un commentateur a déclaré : « il faut leur rendre hommage pour leurs efforts continus en matière d'amélioration, leur rentabilité et leur volonté de partager publiquement leurs progrès ».

Apprendre à l’IA à « réfléchir » tout en utilisant des outils tiers

Au-delà du raisonnement brut, DeepSeek-V3.2 introduit ce qu'il appelle « thinking in tool-use », c'est-à-dire la capacité à raisonner sur des problèmes tout en exécutant simultanément du code, en effectuant des recherches sur le Web et en manipulant des fichiers. Selon certains analystes, il s'agit d'une avancée majeure dans le domaine de l'IA, mais cela ne garantit pas que toutes les tâches seront réussies, ou que le modèle sera parfait dans tous les cas.

Pour rappel, les modèles d'IA précédents étaient confrontés à une limitation frustrante : chaque fois qu'ils faisaient appel à un outil externe, ils perdaient le fil de leur raisonnement et devaient repartir de zéro. (La startup chinoise tente d'apporter une solution innovante à ce problème.) L'architecture de DeepSeek conserve la trace du raisonnement à travers plusieurs appels d'outils, ce qui permet une résolution fluide des problèmes en plusieurs étapes.

https://youtu.be/vvrGcWLqMq0

Pour entraîner cette capacité, DeepSeek a mis en place un pipeline de données synthétiques massif générant plus de 1 800 environnements de tâches distincts et 85 000 instructions complexes. Il s'agissait notamment de défis tels que la planification d'un voyage de plusieurs jours avec des contraintes budgétaires, la correction de bogues logiciels dans huit langages de programmation, et des recherches sur le Web nécessitant des dizaines de recherches.

Le rapport technique décrit un exemple : la planification d'un voyage de trois jours au départ de Hangzhou avec des contraintes sur les prix des hôtels, les notes des restaurants et les coûts des attractions qui varient en fonction des choix d'hébergement. Selon DeepSeek, de telles tâches sont difficiles à résoudre, mais faciles à vérifier, ce qui les rend idéales pour former des agents IA. L'entreprise a utilisé des outils réels pendant la formation du modèle.

Cela comprend : API de recherche Web, environnements de codage et notebooks Jupyter. Elle a aussi généré des prompts synthétiques pour garantir la diversité. Le résultat est un modèle qui se généralise à des outils et des environnements inconnus, une capacité essentielle pour un déploiement dans le monde réel.

DeepSeek « menace » le modèle économique du secteur de l'IA

Contrairement à OpenAI et Anthropic, qui protègent leurs modèles les plus puissants en tant qu'actifs propriétaires, DeepSeek a publié les versions V3.2 et V3.2-Speciale sous licence MIT, l'un des cadres open source les plus permissifs qui soient. Cela signifie que tout développeur ou chercheur peut télécharger le modèle, l’intégrer à ses projets, le modifier ou le redistribuer. Il n’y a pas de restrictions strictes comme certaines autres licences open source.


DeepSeek V3.2 n'est pas une innovation de rupture. Selon les benchmarks, le modèle est au coude à coude avec GPT-5 High et Gemini 3.0 Pro. Toutefois, lorsqu'un modèle capable de rivaliser avec GPT-5 et Gemini-3 Pro sur les benchmarks faisant autorité, mais dont le coût d'inférence est moins élevé, voire inférieur à celui des modèles courants du secteur, est publié en open source, cela suffit à avoir un impact sur l'ensemble du marché de l'IA générative.

C'est aussi la logique fondamentale qui explique la capacité de DeepSeek à bouleverser le secteur. Les implications stratégiques sont importantes. En rendant librement accessibles des modèles à la pointe de la technologie, DeepSeek sape la position des concurrents qui pratiquent des prix élevés pour leurs API.

La fiche modèle Hugging Face indique que DeepSeek a fourni des scripts Python et « des cas de test démontrant comment encoder des messages dans un format compatible avec OpenAI », ce qui facilite la migration depuis les services concurrents, notamment américains. Pour les entreprises, la proposition de valeur est convaincante : des performances de pointe à un coût abordable, voire nettement inférieur, avec une grande flexibilité de déploiement.

Mais les préoccupations liées à « la résidence des données » et l'incertitude réglementaire pourraient limiter son adoption dans les applications sensibles, en particulier compte tenu des origines chinoises de DeepSeek. Plusieurs organisations et gouvernements occidentaux ont interdit l'utilisation de DeepSeek.

DeepSeek face à des barrières réglementaires en UE et aux USA

DeepSeek s'attaque frontalement au monopole des Big Tech américains dans le domaine de l'IA. Cependant, l'expansion mondiale de DeepSeek se heurte à une résistance croissante. En juin, la commissaire à la protection des données de Berlin, Meike Kamp, a déclaré que le transfert par DeepSeek des données des utilisateurs allemands vers la Chine est « illégal » au regard des règles de l'UE, demandant à Apple et Google d'envisager de bloquer l'application.

Plus précisément, les autorités allemandes ont exprimé leur inquiétude quant au fait que « les autorités chinoises disposent de droits d'accès étendus aux données personnelles dans la sphère d'influence des entreprises chinoises ». L'Italie a ordonné à DeepSeek de bloquer son application en février. Les législateurs américains ont aussi pris des mesures pour interdire ce service sur les appareils gouvernementaux, invoquant des raisons de sécurité nationale.

Des questions persistent également au sujet des contrôles à l'exportation américains visant à limiter les capacités de la Chine en matière d'IA. En août 2025, DeepSeek a laissé entendre que la Chine disposerait bientôt de puces « de nouvelle génération » fabriquées localement pour prendre en charge ses modèles. La société chinoise a déclaré que ses systèmes fonctionnent avec des puces chinoises de Huawei et Cambricon sans configuration supplémentaire.

Le modèle V3 original de DeepSeek aurait été entraîné sur environ 2 000 anciennes puces Nvidia H800, un matériel dont l'exportation vers la Chine est désormais restreinte. DeepSeek n'a pas révélé ce qui a alimenté l'entraînement de la version V3.2, mais selon certaines analystes du secteur, les progrès continus de l'entreprise suggèrent que les contrôles à l'exportation ne peuvent à eux seuls freiner les progrès de la Chine dans le domaine de l'IA.

[B]DeepSeek-V3.2 : les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 03/12/2025 à 18:14
Le coût d'inférence est en n².
La réduction qu'ils opèrent est en 1/2 si j'ai bien compris.
Autant dire que ça ne change pas grand chose.

Par contre la reprise du raisonnement ça c'est cool. Parce que d'un appel à l'autre le modèle redit des trucs en boucle à cause du restart du raisonnement, genre "Let's see what the user is requesting. (bla bla qui résume ce qu'il a déjà résumé à l'appel précédent)". C'est long à générer et ça consomme du contexte. Si la reprise permet de couper court aux répétitions c'est du contexte et du temps de gagné. Et possiblement des "boucles infinies" en moins.
0  0