IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Plus fort que ChatGPT-5 d'OpenAI et Claude 4.5 d'Anthropic ? La Chine lance Kimi K2.5 et Kimi Code en open source et mise sur « Parallel Agent Swarm » pour orchestrer un essaim de 100 IA spécialisées

Le , par Stéphane le calme

1PARTAGES

4  0 
Kimi K2.5 est un modèle d’intelligence artificielle multimodal (texte, image, vidéo) open source lancé fin janvier 2026 par la start-up chinoise Moonshot AI. Issu de l’ambition affichée de Moonshot (dirigée par Yang Zhilin, un ancien chercheur Google/Meta) de proposer une alternative puissante aux géants propriétaires, K2.5 entend rivaliser avec les modèles comme GPT-5 (OpenAI), Gemini/Google Bard ou Claude 4.5 (Anthropic). Son architecture est massive : environ 1 trillion de paramètres (architecture Mixture-of-Experts) dont environ 32 milliards activés à chaque requête, et un entraînement sur quelque 15 000 milliards de tokens mêlant textes et images/vidéos. Cette base de données colossale et sa nature « natif multimodal » confèrent à K2.5 des capacités avancées en codage et en compréhension visuelle. D’emblée, Moonshot positionne K2.5 comme un modèle « tournant en local » et distribué gratuitement, encourageant une adoption large hors des plateformes fermées américaines

Kimi K2.5 se distingue par plusieurs innovations techniques. Sa fenêtre contextuelle est qualifiée « d’ultra-large » : selon Moonshot, elle peut aller jusqu’à plusieurs centaines de milliers de tokens (par exemple 256 000 tokens dans la version publique), ce qui permet de traiter de longs documents ou d’importantes conversations en un seul passage. Ce modèle à experts multiples (Mixture-of-Experts) active dynamiquement quelques sous-réseaux plutôt que l’ensemble du réseau, gérant environ 1 000 milliards de paramètres au total tout en n’en mobilisant qu’environ 32 milliards par requête. Il a été pré-entraîné sur un jeu de données gigantesque (~15 trillions de tokens mixtes, texte et vision).

L'élément le plus marquant est le « Parallel Agent Swarm ». K2.5 peut automatiquement créer et coordonner un essaim d’agents internes (jusqu’à 100 sous-agents IA spécialisés) pour décomposer les tâches complexes. Chaque sous-agent peut appeler des outils (API, scripts, interfaces externes) pour exécuter sa micro-tâche. Moonshot indique que cet essaim peut lancer jusqu’à 1 500 appels d’outils en parallèle, réduisant le temps d’exécution global d’un facteur pouvant atteindre 4,5× par rapport à un agent unique. Cette approche parallèle (entraînée par un orchestrateur via un processus de « reinforcement learning » spécial) permet donc de traiter des chaînes de tâches extrêmement longues plus efficacement qu’une exécution séquentielle classique.


« Parallel Agent Swarm », quelle est la nouveauté dans l'approche de Moonshot AI ?

Pour mémoire, le concept a des points originaux, mais il s’appuie sur des idées qui existent déjà dans la concurrence.

Kimi K2.5 met en avant une architecture spécifique où :
  • un orchestrateur interne formé par apprentissage (PARL) décompose automatiquement une tâche complexe ;
  • jusqu’à 100 sous-agents spécialisés sont générés dynamiquement ;
  • ces sous-agents fonctionnent en parallèle, coordonnés par l’orchestrateur, sans définition manuelle préalable des rôles ou du workflow.

Cela signifie que K2.5 ne se contente pas d’avoir un système multi-agents codé à la main, mais utilise un entraînement pour apprendre comment créer et coordonner les agents automatiquement dans des contextes variés. Cette approche « scale-out » pour l’IA est présenté comme une avancée d’ingénierie importante par Moonshot AI.

En pratique, K2.5 prétend réduire drastiquement le temps total d’exécution de tâches complexes en exploitant l’exécution parallèle (jusqu’à ~1500 appels d’outils coordonnés).

Ce qui n’est donc pas complètement inédit. En effet, l’idée de systèmes multi-agents ou de « swarms » d’agents n’est pas une invention propre à Kimi. Dans l’état actuel de la recherche et du marché, les multi-agents et agents orchestration existent déjà :
  • OpenAI Swarm et d’autres frameworks multi-agents permettent déjà de créer et coordonner des agents logiciels pour réaliser des tâches collaboratives.
  • Des frameworks comme CrewAI, AutoGen, LangGraph, LlamaIndex agents, Microsoft Semantic Kernel, etc. proposent des moyens d’assembler plusieurs agents ou de définir des workflows complexes entre eux.
  • Même Google (via Gemini/Agentspace) ou d’autres acteurs explorent des architectures qui décomposent et distribuent des tâches entre plusieurs agents coordonnés.

Le concept général de multiple IA spécialisées collaborant pour résoudre des tâches complexes (c’est-à-dire des systèmes multi-agents) est un domaine actif de recherche et d’ingénierie depuis plusieurs années.

La nouveauté de K2.5 ici vient moins de l’idée de base (multi-agents) que de comment l’orchestrateur a appris et est utilisé pour créer les agents automatiquement en parallèle. Ce degré d’autonomie dans la création et la coordination des agents, ainsi que l’échelle annoncée (jusqu’à 100 sous-agents parallèles gérés sans scripts prédéfinis), est moins courant dans les systèmes déjà disponibles, surtout sous forme intégrée dans un grand modèle avec des workflows automatisés.


Cas d’usage concrets pour les développeurs

Kimi K2.5 est particulièrement mis en avant pour des usages concrets, notamment en développement logiciel et en génération de contenu multimédia. Sur la partie codage, le modèle excelle, en particulier pour le développement front-end. Il peut convertir une simple description (voire une image ou une vidéo) en interfaces web interactives complètes avec HTML, CSS et animations. Les premiers retours soulignent sa capacité de « visual coding » : par exemple, en fournissant à K2.5 une capture vidéo d’une application existante, le modèle en reconstitue la structure et le code quasi instantanément. Selon les retours d'un utilisateur, cette fonction transforme une simple démonstration visuelle en prototype opérationnel sans aucune ligne de code écrite manuellement.

Pour appuyer ce type de tâches, Moonshot propose aussi Kimi Code, un outil de codage accessible en ligne de commande (CLI) et compatible avec des EDI comme VSCode. Kimi Code est entièrement open source, intégré au terminal de développement et capable de prendre en entrée du texte, des images ou des vidéos pour générer du code. Il facilite l’exécution de flux de travail « agentiques » centrés sur le code (intégration continue, gestion de projets, debugging autonome, etc.).

L’environnement open source de K2.5 est un argument clé. La licence très permissive (inspirée du MIT) permet aux entreprises et aux chercheurs de déployer K2.5 localement, de l’affiner pour des besoins spécifiques (fine-tuning) et de l’intégrer librement via des API compatibles. Ainsi, les développeurs techniques peuvent adapter le modèle à leur usage sans dépendre d’un service propriétaire étranger. Cette liberté suscite l’adhésion des profils techniques en quête de contrôle total sur leurs outils IA


Comparaison avec GPT-4, GPT-5 (OpenAI) et Claude 4.5 (Anthropic)

Sur le plan des performances, Moonshot revendique que Kimi K2.5 rivalise avec les meilleurs modèles propriétaires. Sur des benchmarks open (« agentic benchmarks »), les chiffres publiés par Moonshot indiquent des scores de 50,2 % sur Humanity’s Last Exam (HLE) contre 32 % pour Claude 4.5 et 41,7 % pour GPT-5.2. En génération de code (SWE-Bench Verified), K2.5 atteint environ 76,8 % de réussite sur des tâches de codage réel. Selon Moonshot, en codage pur, K2.5 devance Gemini 3 Pro (le modèle Google) et réalise des scores supérieurs à GPT-5.2 sur certains benchmarks de programmation multilingue.

En compréhension multimodale, K2.5 tire parti de son entraînement vision+texte : selon Moonshot, il dépasse GPT-5.2 et Claude Opus 4.5 sur des tests de compréhension vidéo comme VideoMMMU. Frandr observe que, grâce à l’Agent Swarm, K2.5 obtient par exemple 78,4 % sur l’épreuve BrowseComp contre 65,8 % pour GPT-5.2 et 57,8 % pour Claude 4.5, soit un avantage net sur ces tâches de recherche assistée par agents. L’échantillon de tests disponibles suggère donc que K2.5 est plus performant sur des tâches agentiques et visuelles prolongées, alors que les modèles propriétaires restent très forts en raisonnement général.

Au-delà des scores bruts, K2.5 se démarque surtout par son modèle de distribution : il est gratuit et open source là où GPT-4/5 et Claude exigent des accès payants ou contrôlés. Moonshot souligne ce choix comme un facteur différenciateur : K2.5 est publié sous licence ouverte pour créer un écosystème global et réduire la dépendance aux modèles américains. Cette liberté d’usage étendue – qui inclut un accès total aux poids du modèle – attire nombre de développeurs fatigués par les contraintes tarifaires ou d’usage imposées par OpenAI, Google ou Anthropic.


Impact sur l’écosystème IA mondial

L’émergence de Kimi K2.5 illustre plusieurs tendances majeures dans l’IA. D’une part, c’est la montée en puissance des acteurs chinois : Moonshot AI, soutenue par Alibaba et Tencent, démontre qu’elle peut rivaliser techniquement avec les leaders américains. Le modèle K2.5, valorisé près de 4,3 milliards de dollars, symbolise la volonté chinoise de ne plus jouer un rôle secondaire, et d’imposer ses innovations fonctionnelles (comme le vidéo-to-code) sur le marché mondial

D’autre part, K2.5 renforce la dynamique des modèles open source. Depuis quelques années, les projets open source progressent vite (LLaMA, Mistral, Qwen, etc.), mais peinaient à combler l’écart de performance avec les GPT-like propriétaires. Avec K2.5, Moonshot montre que des laboratoires non américains peuvent publier un modèle de très haut niveau, incluant des compétences de code et de vision avancées. Cela pourrait encourager d’autres acteurs à lancer des alternatives...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !