La société chinoise d'IA Z.ai annonce son LLM partenaire de codage avancé GLM-4.7 avec les agents Core Coding, Vibe Coding et Complex Reasoning, comparable à GPT, Claude, Gemini et Deepseek.La société chinoise d'IA Z.ai annonce son LLM partenaire de codage avancé GLM-4.7. Le nouveau partenaire de codage est doté des fonctionnalités suivantes : Codage de base, Vibe Coding, utilisation des outils et raisonnement complexe. Vous pouvez également constater des améliorations dans de nombreux autres scénarios tels que le chat, l'écriture créative et les jeux de rôle.
Beijing Zhipu Huazhang Technology Co., Ltd, connue internationalement sous le nom de Z.ai, est une entreprise technologique chinoise spécialisée dans l'intelligence artificielle (IA). L'entreprise était auparavant connue sous le nom de Zhipu AI en dehors de la Chine jusqu'à son changement de marque en 2025. En 2024, elle est l'une des entreprises chinoises " AI Tiger " selon les investisseurs et considérée comme le troisième acteur du marché LLM dans l'industrie de l'IA en Chine selon l'International Data Corporation. En janvier 2025, le département du Commerce des États-Unis a inscrit l'entreprise sur la liste noire de sa liste d'entités en raison de préoccupations liées à la sécurité nationale.
En juillet 2025, Zhipu AI a publié GLM-4.5 et GLM-4.5 Air, ses modèles de langage de nouvelle génération, qui ont obtenu des résultats supérieurs à plusieurs critères de référence populaires. Parallèlement à la publication de ses modèles, l'entreprise s'est rebaptisée Z.ai au niveau international. En août 2025, Z.ai a annoncé que ses modèles GLM étaient compatibles avec les processeurs Ascend de Huawei. Le 11 août 2025, Z.ai a publié un nouveau modèle de langage de vision (VLM) avec un total de 106B paramètres, GLM-4.5V, atteignant SOTA contre d'autres VLM open-source tels que Qwen2.5-VL d'Alibaba et Step-3 de StepFun. Fin septembre 2025, la société a publié GLM 4.6 en utilisant des puces nationales chinoises telles que celles de Cambricon Technologies.
Récemment, GLM-4.7 a été annoncé par Z.ai. Le nouveau partenaire de codage est doté des fonctionnalités suivantes :
- Codage de base : GLM-4.7 apporte de nets progrès, par rapport à son prédécesseur GLM-4.6, dans le codage agentique multilingue et les tâches basées sur les terminaux, notamment (73,8%, +5,8%) sur SWE-bench, (66,7%, +12,9%) sur SWE-bench Multilingual, et (41%, +16,5%) sur Terminal Bench 2.0. GLM-4.7 permet également de réfléchir avant d'agir, avec des améliorations significatives sur des tâches complexes dans des cadres d'agents courants tels que Claude Code, Kilo Code, Cline et Roo Code.
- Vibe Coding : GLM-4.7 fait un grand pas en avant dans la qualité de l'interface utilisateur. Il produit des pages web plus propres et plus modernes et génère des diapositives de meilleure qualité avec une mise en page et un dimensionnement plus précis.
- Utilisation des outils : GLM-4.7 apporte des améliorations significatives dans l'utilisation des outils. De meilleures performances peuvent être observées sur des benchmarks tels que τ^2-Bench et sur la navigation web via BrowseComp.
- Raisonnement complexe : GLM-4.7 apporte une amélioration substantielle des capacités mathématiques et de raisonnement, atteignant (42.8%, +12.4%) sur le benchmark HLE (Humanity's Last Exam) par rapport à GLM-4.6.
Vous pouvez également constater des améliorations dans de nombreux autres scénarios tels que le chat, l'écriture créative et les jeux de rôle.
Benchmark des performances : Des comparaisons plus détaillées de GLM-4.7 avec d'autres modèles GPT-5, GPT-5.1-High, Claude Sonnet 4.5, Gemini 3.0 Pro, DeepSeek-V3.2, Kimi K2 Thinking, sur 17 benchmarks (dont 8 benchmarks de raisonnement, 5 de codage, et 3 d'agents) peuvent être vues dans le tableau ci-dessous.
Codage : L'AGI est un long voyage, et les tests ne sont qu'un moyen d'évaluer les performances. Bien que les mesures fournissent des points de contrôle nécessaires, la chose la plus importante reste la sensation que l'on éprouve. La véritable intelligence ne consiste pas seulement à réussir un test ou à traiter des données plus rapidement ; en fin de compte, le succès de l'AGI sera mesuré par la fluidité avec laquelle elle s'intégrera dans nos vies - en « codant » cette fois.
Démarrer avec GLM-4.7
Pensée entrelacée et pensée préservée
GLM-4.7 améliore la pensée entrelacée, une fonctionnalité introduite depuis GLM-4.5, et introduit en outre la pensée préservée et la pensée à niveau tournant. En réfléchissant entre les actions et en restant cohérent d'un tour à l'autre, il rend les tâches complexes plus stables et plus contrôlables :
- Pensée entrelacée : GLM-4.7 réfléchit avant chaque réponse et chaque appel d'outil, ce qui améliore le suivi des instructions et la qualité de la génération.
- Pensée préservée : Dans les scénarios d'agents de codage, GLM-4.7 conserve automatiquement tous les blocs de réflexion dans les conversations à plusieurs tours, en réutilisant le raisonnement existant au lieu de le redévelopper à partir de zéro. Cela réduit la perte d'informations et les incohérences, et est bien adapté aux tâches complexes à long terme.
- Réflexion au niveau du tour : GLM-4.7 prend en charge le contrôle par tour du raisonnement au sein d'une session - désactiver le raisonnement pour les requêtes légères afin de réduire la latence/le coût, l'activer pour les tâches complexes afin d'améliorer la précision et la stabilité.
Appeler l'API GLM-4.7 via la plateforme API de Z.ai : La plateforme API de Z.ai offre le modèle GLM-4.7. Parallèlement, le modèle est également disponible dans le monde entier par l'intermédiaire d'OpenRouter.
Utiliser GLM-4.7 avec les agents de codage : GLM-4.7 est maintenant disponible pour être utilisé avec les agents de codage (Claude Code, Kilo Code, Roo Code, Cline et autres).
Pour les abonnés du Plan de codage GLM : Vous serez automatiquement mis à niveau vers GLM-4.7. Si vous avez précédemment personnalisé les configurations de l'application (comme ~/.claude/settings.json dans Claude Code), mettez simplement à jour le nom du modèle en « glm-4.7 » pour terminer la mise à niveau.
Pour les nouveaux utilisateurs : S'abonner à GLM Coding Plan signifie avoir accès à un modèle de codage de niveau Claude pour une fraction du coût - juste 1/7ème du prix avec 3x le quota d'utilisation.
Chat avec GLM-4.7 sur Z.ai : GLM-4.7 est accessible via Z.ai. Essayez de changer l'option du modèle en GLM-4.7, si le système ne le fait pas automatiquement (ce n'est pas comme un AGI dans ce cas
Servir GLM-4.7 localement : Les poids des modèles pour GLM-4.7 sont disponibles publiquement sur HuggingFace et ModelScope. Pour un déploiement local, GLM-4.7 supporte des cadres d'inférence tels que vLLM et SGLang. Des instructions de déploiement complètes sont disponibles dans le dépôt officiel GitHub.
Source : Accéder à GLM-4.7 avec le chat sur Z.ai
Et vous ?
Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?Voir aussi :
L'adoption mondiale des modèles d'IA open source chinois a presque triplé, passant de 13 % à environ 30 % de l'utilisation totale en 2025, sous l'impulsion de DeepSeek et de Qwen d'Alibaba
« La Chine va remporter la course à l'IA » en raison de la réglementation excessive des USA, tandis que la Chine bénéficie de coûts moins élevés pour les développeurs locaux, a déclaré le PDG de Nvidia
« L'IA superintelligente est un fantasme de la Silicon Valley. L'AGI ne se produira jamais en raison des limites du matériel informatique et des coûts exponentiels du calcul », selon un chercheur de l'Ai2
Vous avez lu gratuitement 8 307 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.