Alibaba lance Qwen3-Coder-Next, un modèle de langage ouvert conçu pour les agents de codage et le développement local, offrant de solides capacités de codage avec des coûts d'inférence inférieursAlibaba a présenté Qwen3-Coder-Next, un modèle de langage ouvert spécialement conçu pour les agents de codage et le développement local. Conçu à partir de Qwen3-Next-80B-A3B-Base, qui adopte une architecture novatrice combinant attention hybride et MoE, Qwen3-Coder-Next a été entraîné à grande échelle sur la synthèse de tâches exécutables à grande échelle, l'interaction avec l'environnement et l'apprentissage par renforcement, obtenant ainsi de solides capacités de codage et d'agentique avec des coûts d'inférence nettement inférieurs.
Alibaba Group est une multinationale chinoise spécialisée dans le commerce électronique, la vente au détail, l'Internet et les technologies. Alibaba Cloud, filiale du groupe Alibaba spécialisée dans le cloud computing, a développé Qwen, une famille de grands modèles de langage (LLM). En juillet 2024, Qwen a été classé comme le meilleur modèle de langage chinois dans certains benchmarks et troisième au niveau mondial derrière les meilleurs modèles d'Anthropic et d'OpenAI.
Fin janvier 2026, Alibaba a lancé Qwen3-Max-Thinking, son modèle d'intelligence artificielle le plus performant à ce jour. Sur 19 benchmarks largement reconnus, Qwen3-Max-Thinking offre des performances équivalentes à celles des modèles leaders, notamment GPT 5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro. Pour atteindre ces résultats, Qwen3-Max-Thinking bénéficie d'une mise à l'échelle étendue du modèle et de l'application de ressources importantes en matière d'apprentissage par renforcement. Ces avancées améliorent la précision factuelle du modèle, ses capacités de raisonnement complexes, sa capacité à suivre des instructions, son alignement avec les préférences humaines et sa prise en charge des tâches basées sur des agents.
Récemment, Alibaba a présenté Qwen3-Coder-Next, un modèle de langage ouvert spécialement conçu pour les agents de codage et le développement local. Conçu à partir de Qwen3-Next-80B-A3B-Base, qui adopte une architecture novatrice combinant attention hybride et MoE, Qwen3-Coder-Next a été entraîné à grande échelle sur la synthèse de tâches exécutables à grande échelle, l'interaction avec l'environnement et l'apprentissage par renforcement, obtenant ainsi de solides capacités de codage et d'agentique avec des coûts d'inférence nettement inférieurs.
Formation agentique à grande échelle
Plutôt que de s'appuyer uniquement sur la mise à l'échelle des paramètres, Qwen3-Coder-Next se concentre sur la mise à l'échelle des signaux de formation agentique. Ils ont formé le modèle à l'aide de vastes collections de tâches de codage vérifiables associées à des environnements exécutables, ce qui permet au modèle d'apprendre directement à partir des retours d'information de l'environnement. Cela comprend :
- Une préformation continue sur des données centrées sur le code et les agents.
- Un réglage supervisé sur des données contenant des trajectoires d'agents de haute qualité.
- Une formation d'experts spécialisés dans un domaine particulier (par exemple, génie logiciel, assurance qualité, web/UX).
- Une distillation d'experts en un seul modèle prêt à être déployé.
Cette recette met l'accent sur le raisonnement à long terme, l'utilisation d'outils et la récupération après des échecs d'exécution, qui sont essentiels pour les agents de codage dans le monde réel.
Performances sur les benchmarks des agents de codage
La figure ci-dessous résume les performances de plusieurs benchmarks d'agents de codage largement utilisés, notamment SWE-Bench (Verified, Multilingual et Pro), TerminalBench 2.0 et Aider.
La figure montre que :
- Qwen3-Coder-Next atteint plus de 70 % sur SWE-Bench Verified en utilisant le scaffold SWE-Agent.
- Les performances restent compétitives dans les configurations multilingues et dans le benchmark SWE-Bench Pro, plus difficile.
- Malgré son faible encombrement actif, le modèle égale ou dépasse plusieurs modèles open source beaucoup plus volumineux dans les évaluations centrées sur les agents.
Comme le montre la figure ci-dessous, notre modèle obtient d'excellents résultats sur SWE-Bench Pro en augmentant le nombre de tours d'agent, ce qui prouve que le modèle excelle dans le raisonnement à long terme dans les tâches agentives à plusieurs tours.
Compromis entre efficacité et performances
Cette figure met en évidence la manière dont Qwen3-Coder-Next parvient à un meilleur compromis de Pareto entre efficacité et performances.
Cette comparaison illustre clairement l'efficacité du modèle :
- Qwen3-Coder-Next (3B actif) atteint des performances SWE-Bench-Pro comparables à celles de modèles comportant 10 à 20 fois plus de paramètres actifs.
- Qwen3-Coder-Next se situe sur une frontière de Pareto solide pour un déploiement d'agents rentable.
Alibaba commente cette annonce : "Qwen3-Coder-Next affiche des résultats prometteurs sur les benchmarks des agents de codage, offrant une bonne vitesse et de bonnes capacités de raisonnement pour une utilisation pratique. Bien qu'il soit compétitif, même par rapport à certains modèles open source plus importants, il reste encore beaucoup à améliorer. À l'avenir, nous pensons que des compétences solides de l'agent, telles que l'utilisation autonome d'outils, la gestion de problèmes difficiles et la gestion de tâches complexes, sont essentielles pour améliorer les agents de codage. Nous prévoyons ensuite d'améliorer le raisonnement et la prise de décision du modèle, de prendre en charge davantage de tâches et de le mettre à jour rapidement en fonction de son utilisation par les utilisateurs."
Cette annonce intervient dans un contexte où les modèles d'intelligence artificielle (IA) open source chinois ont considérablement étendu leur présence à l'échelle mondiale, leur taux d'adoption passant de 13 % à près de 30 % de l'utilisation totale en 2025, principalement grâce à Qwen et DeepSeek. Cette tendance a été documentée dans le rapport "State of AI" d'OpenRouter, qui a analysé plus de 100 000 milliards de jetons sur plus de 300 modèles, révélant ainsi le passage d'une domination propriétaire à une concurrence pluraliste et open source à l'échelle mondiale.
En outre, il y a un an, le groupe Alibaba a annoncé investir 53 milliards de dollars dans l'intelligence artificielle (IA) et le cloud computing au cours des trois prochaines années. Cet investissement marque un tournant majeur dans l'histoire de la marque, car la somme dépasse le total de ses dépenses en matière d'IA et de cloud au cours de la dernière décennie. Dans un billet de blog partageant la nouvelle de l'investissement, il est expliqué que « le cloud computing reste le moteur de revenus le plus clair d'Alibaba en matière d'IA, avec une demande de services d'hébergement d'IA en forte hausse ».
Source : Annonce de Qwen3-Coder-Next
Et vous ?
Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?Voir aussi :
Alibaba a lancé Qwen3-Next, une toute nouvelle architecture de modèle d'IA optimisée pour la compréhension de contextes longs, les paramètres à grande échelle et une efficacité de calcul sans précédent
Trois ans après avoir été pris au dépourvu par ChatGPT, Gemini est-il en train de gagner ? Des benchmarks et des chercheurs suggèrent que Gemini a ce qu'il faut pour détrôner OpenAI et tous ses concurrents
Les assistants de codage IA sont-ils en train de rendre le code plus rapide à écrire... mais plus lent et plus coûteux à maintenir ? Un data scientist note une stagnation, voire une dégradation de performance
Vous avez lu gratuitement 2 616 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.