Les modèles d'intelligence artificielle (IA) open source chinois ont considérablement étendu leur présence à l'échelle mondiale, leur taux d'adoption passant de 13 % à près de 30 % de l'utilisation totale en 2025, principalement grâce à Qwen et DeepSeek. Cette tendance a été documentée dans le rapport "State of AI" d'OpenRouter, qui a analysé plus de 100 000 milliards de jetons sur plus de 300 modèles, révélant ainsi le passage d'une domination propriétaire à une concurrence pluraliste et open source à l'échelle mondiale.Qwen (également connu sous le nom de Tongyi Qianwen) est une famille de grands modèles de langage développés par Alibaba Cloud. De nombreuses variantes de Qwen sont distribuées en tant que modèles à poids ouvert sous licence Apache 2.0, tandis que d'autres sont fournies par Alibaba Cloud. En juillet 2024, les médias chinois ont rapporté que la plateforme d'évaluation comparative SuperCLUE classait Qwen2-72B-Instruct derrière GPT-4o d'OpenAI et Claude 3.5 Sonnet d'Anthropic, ainsi que devant d'autres modèles chinois.
DeepSeek est un chatbot d'IA générative développé par la société chinoise DeepSeek. Lancé le 20 janvier 2025, le modèle DeepSeek-R1 a dépassé ChatGPT en tant qu'application gratuite la plus téléchargée sur l'App Store iOS aux États-Unis dès le 27 janvier. Le succès de DeepSeek face à des concurrents plus importants et mieux établis a été décrit comme « bouleversant l'IA » et initiant « une course mondiale à l'espace IA ». DeepSeek été salué pour ses poids et son code d'infrastructure ouverts, son efficacité énergétique et ses contributions à l'IA open source.
Le 3 décembre dernier, la start-up chinoise DeepSeek a dévoilé les modèles d'IA open source DeepSeek V3.2 et V3.2-Speciale, conçus pour rivaliser avec les modèles de pointe américains GPT-5 d’OpenAI et Gemini-3 Pro de Google. Offrant des capacités de raisonnement et une efficacité computationnelle avancées, DeepSeek-V3.2 s’est distingué dans plusieurs benchmarks de référence, notamment en codage et en mathématiques, renforçant l’essor des alternatives chinoises.
Des données récentes ont révélé que l'adoption mondiale des modèles d'IA chinois a atteint des niveaux sans précédent, les modèles provenant de Chine continentale, de Taïwan et de Hong Kong représentant près de 30 % de l'utilisation totale de l'intelligence artificielle d'ici la fin 2025, soit une augmentation spectaculaire par rapport aux 13 % enregistrés au début de l'année.
Ces conclusions sont tirées du rapport State of AI récemment publié par OpenRouter, qui a analysé plus de 100 000 milliards de jetons d'interactions réelles entre des grands modèles de langage (LLM) sur plus de 300 modèles provenant de plus de 60 fournisseurs.
Ce rapport fournit l'étude empirique la plus complète à ce jour sur la manière dont les systèmes d'IA sont réellement déployés dans la pratique.
« Les modèles open source chinois ont progressivement gagné du terrain, atteignant près de 30 % de l'utilisation totale de tous les modèles au cours de certaines semaines », indique le rapport, qui met en avant les modèles DeepSeek, Qwen (Alibaba) et Kimi de Moonshot AI comme principaux moteurs de cette expansion.
DeepSeek domine l'écosystème open source avec 14,37 billions de jetons traités pendant la période étudiée, bien que sa domination du marché se soit fragmentée avec l'émergence de concurrents. Qwen se classe deuxième avec 5,59 billions de jetons, suivi par LLaMA de Meta avec 3,96 billions de jetons.
Le rapport identifie ce que les chercheurs appellent une « inflexion estivale » à la mi-2025, lorsque le paysage de l'IA open source est passé d'un quasi-monopole à une concurrence pluraliste.
« Vers la fin de l'année 2025, l'équilibre concurrentiel était passé d'un quasi-monopole à une configuration pluraliste. Aucun modèle ne dépasse 25 % des jetons OSS », selon l'analyse.
Le chinois simplifié représente désormais près de 5 % du volume mondial de jetons, ce qui en fait la deuxième langue la plus utilisée après l'anglais, qui domine avec 82,87 %. Cette répartition linguistique reflète l'engagement soutenu des utilisateurs dans des environnements bilingues ou principalement chinois et souligne l'importance croissante des capacités multilingues de l'IA.
La part globale de l'Asie dans les dépenses liées à l'inférence IA a plus que doublé au cours de la période étudiée, passant d'environ 13 % à 31 % de l'utilisation mondiale. Singapour s'est imposée comme le deuxième pays en termes de volume de jetons (9,21 %) après les États-Unis (47,17 %), la Chine se classant quatrième avec 6,01 %.
Le rapport révèle des schémas d'utilisation inattendus qui remettent en question les hypothèses conventionnelles sur le déploiement de l'IA. Contrairement à l'idée reçue selon laquelle les tâches de productivité dominent, les jeux de rôle créatifs représentent plus de 50 % de l'utilisation des modèles open source, tandis que la programmation représente la deuxième catégorie en importance et le segment qui connaît la croissance la plus rapide dans l'ensemble.
« Les requêtes de programmation représentaient environ 11 % du volume total de jetons au début de l'année 2025 et ont dépassé les 50 % ces dernières semaines », notent les chercheurs, ce qui reflète la profonde intégration de l'IA dans les processus de développement logiciel.
Les modèles open source représentent désormais environ un tiers de l'utilisation totale de l'IA, atteignant un « équilibre à environ 30 % », selon le rapport.
Cela marque un changement fondamental dans l'écosystème de l'IA, où les systèmes propriétaires d'OpenAI, d'Anthropic et de Google sont en concurrence directe avec des alternatives développées par la communauté.
La recherche introduit le concept d'« inférence agentique », qui décrit le passage d'une génération de texte en un seul tour à des workflows de raisonnement en plusieurs étapes intégrant des outils.
Les modèles optimisés pour le raisonnement représentent désormais plus de 50 % de tous les jetons traités, contre près de zéro au début de l'année 2025, ce qui indique que les systèmes d'IA sont de plus en plus déployés en tant que composants de systèmes automatisés plus vastes plutôt que pour des requêtes isolées.
« La requête LLM médiane n'est plus une simple question ou une instruction isolée. Elle fait désormais partie d'une boucle structurée, semblable à celle d'un agent, qui fait appel à des outils externes, raisonne sur l'état et persiste dans des contextes plus longs », explique le rapport.
La longueur moyenne des jetons a presque quadruplé depuis début 2024, passant d'environ 1 500 à plus de 6 000 jetons, tandis que la longueur totale a presque triplé. Les charges de travail liées à la programmation sont à l'origine de cette expansion, les requêtes liées au code dépassant régulièrement les 20 000 jetons d'entrée.
L'étude identifie également ce que les chercheurs appellent « l'effet Cendrillon » : un phénomène selon lequel les premières cohortes d'utilisateurs qui trouvent un alignement précis entre le modèle et la charge de travail affichent des taux de rétention nettement plus élevés que les utilisateurs qui ont adopté le modèle plus tardivement.
Ce modèle suggère que le fait d'être le premier à résoudre une charge de travail critique crée un avantage concurrentiel durable. L'analyse des coûts révèle que la demande reste relativement inélastique par rapport aux prix, le pouvoir de fixation des prix variant considérablement d'un segment de marché à l'autre.
Les modèles haut de gamme d'Anthropic et d'OpenAI coûtent environ 2 à 35 dollars par million de jetons tout en conservant un niveau d'utilisation élevé, tandis que les « géants...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.