IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Alibaba dévoile la dernière version de son modèle d'IA Qwen3-Max-Thinking pour concurrencer les meilleurs modèles d'IA tels que GPT 5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro

Le , par Alex

5PARTAGES

4  0 
Alibaba dévoile la dernière version de son modèle d'IA Qwen3-Max-Thinking pour concurrencer les meilleurs modèles d'IA tels que GPT 5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro

Alibaba a lancé Qwen3-Max-Thinking, son modèle d'intelligence artificielle le plus performant à ce jour. Sur 19 benchmarks largement reconnus, Qwen3-Max-Thinking offre des performances équivalentes à celles des modèles leaders, notamment GPT 5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro. Pour atteindre ces résultats, Qwen3-Max-Thinking bénéficie d'une mise à l'échelle étendue du modèle et de l'application de ressources importantes en matière d'apprentissage par renforcement. Ces avancées améliorent la précision factuelle du modèle, ses capacités de raisonnement complexes, sa capacité à suivre des instructions, son alignement avec les préférences humaines et sa prise en charge des tâches basées sur des agents.

Alibaba Cloud est une société chinoise de cloud computing, filiale de Alibaba Group. Alibaba Cloud fournit des services d'informatique en nuage aux entreprises en ligne et à l'écosystème d'Alibaba de commerce électronique. Les opérations internationales d'Alibaba Cloud sont basées à Singapour. Au-delà du statut de plus grande société d'informatique du cloud en Chine, Alibaba Cloud opère des centres de données dans 19 régions et 56 zones de disponibilité à travers le monde.

Qwen est une famille de grands modèles de langage développés par Alibaba Cloud. De nombreuses variantes de Qwen sont distribuées sous la licence Apache-2.0, tandis que d'autres sont servies via Alibaba Cloud. En juillet 2024, le South China Morning Post a rapporté que la plateforme d'évaluation comparative SuperCLUE classait Qwen2‑72B‑Instruct derrière GPT‑4o d'OpenAI et Claude 3.5 Sonnet d'Anthropic et devant d'autres modèles chinois.

En décembre 2025, Alibaba Cloud a dévoilé Qwen3-Omni-Flash-2025-12-01. Qwen3-Omni est un grand modèle multimodal natif de nouvelle génération capable de traiter de manière transparente plusieurs modalités d'entrée, notamment le texte, les images, l'audio et la vidéo, et de générer simultanément des sorties textuelles et vocales naturelles par le biais de réponses en continu et en temps réel. Cette version présente de nombreuses améliorations visant à accroître les performances et l'efficacité du modèle.

Récemment, Alibaba a lancé Qwen3-Max-Thinking, son modèle d'intelligence artificielle le plus performant à ce jour. Sur 19 benchmarks largement reconnus, Qwen3-Max-Thinking offre des performances équivalentes à celles des modèles leaders, notamment GPT 5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro. Pour atteindre ces résultats, Qwen3-Max-Thinking bénéficie d'une mise à l'échelle étendue du modèle et de l'application de ressources importantes en matière d'apprentissage par renforcement. Ces avancées améliorent la précision factuelle du modèle, ses capacités de raisonnement complexes, sa capacité à suivre des instructions, son alignement avec les préférences humaines et sa prise en charge des tâches basées sur des agents.

S'appuyant sur ces améliorations, Qwen3-Max-Thinking introduit des fonctionnalités d'utilisation adaptative des outils, lui permettant de déclencher des actions de récupération et d'invoquer un interpréteur de code si nécessaire. Cette innovation augmente son utilité pour les flux de travail complexes. Le modèle met également en œuvre des méthodes avancées de mise à l'échelle au moment du test, ce qui se traduit par des performances de raisonnement qui surpassent celles de Gemini 3 Pro sur des tâches clés.


Voici un extrait de l'annonce :

Nous présentons Qwen3-Max-Thinking, notre dernier modèle de raisonnement phare. En augmentant les paramètres du modèle et en exploitant d'importantes ressources informatiques pour l'apprentissage par renforcement, Qwen3-Max-Thinking atteint des améliorations significatives en termes de performances dans plusieurs domaines, notamment les connaissances factuelles, le raisonnement complexe, le suivi des instructions, l'alignement avec les préférences humaines et les capacités des agents. Sur 19 benchmarks établis, il affiche des performances comparables à celles de modèles de pointe tels que GPT-5.2-Thinking, Claude-Opus-4.5 et Gemini 3 Pro.

Nous améliorons encore Qwen3-Max-Thinking grâce à deux innovations clés : (1) des capacités d'utilisation adaptative des outils qui permettent la récupération à la demande et l'invocation d'un interpréteur de code, désormais disponibles sur chat.qwen.ai ; et (2) des techniques avancées de mise à l'échelle au moment du test qui améliorent considérablement les performances de raisonnement, surpassant Gemini 3 Pro sur les principaux benchmarks de raisonnement.
Capacités d'utilisation adaptative des outils

Contrairement aux approches précédentes qui exigeaient des utilisateurs qu'ils sélectionnent manuellement les outils avant chaque tâche, Qwen3-Max-Thinking sélectionne et exploite de manière autonome ses capacités intégrées de recherche, de mémoire et d'interprétation de code pendant les conversations. Cette capacité est le résultat d'un processus de formation ciblé : après un réglage initial pour l'utilisation des outils, le modèle a suivi une formation supplémentaire sur diverses tâches en utilisant à la fois des retours d'information basés sur des règles et sur des modèles.

Empiriquement, l'équipe de Qwen a observé que les outils de recherche et de mémoire atténuent efficacement les hallucinations, donnent accès à des informations en temps réel et permettent des réponses plus personnalisées. L'interpréteur de code permet aux utilisateurs d'exécuter des extraits de code et d'appliquer un raisonnement computationnel pour résoudre des problèmes complexes. Ensemble, ces fonctionnalités offrent une expérience conversationnelle fluide et performante.


Stratégie de mise à l'échelle au moment du test

La mise à l'échelle au moment du test fait référence aux techniques qui allouent des calculs supplémentaires pendant l'inférence afin d'améliorer les performances du modèle. Qwen propose une stratégie de mise à l'échelle au moment du test, cumulative et en plusieurs rounds, pour le mode lourd. Au lieu d'augmenter simplement les trajectoires parallèles NN, ce qui conduit souvent à un raisonnement redondant, ils limitent NN et redirigent les calculs enregistrés vers une auto-réflexion itérative guidée par un mécanisme « d'acquisition d'expérience ». Ce mécanisme distille les informations clés des cycles précédents, permettant au modèle d'éviter de redéfinir des conclusions connues et de se concentrer sur les incertitudes non résolues.

Il est essentiel de noter qu'il permet d'obtenir une efficacité contextuelle supérieure à celle d'une référence naïve aux trajectoires brutes, ce qui permet une intégration plus riche des informations historiques dans la même fenêtre contextuelle. Cette approche surpasse systématiquement l'échantillonnage et l'agrégation parallèles standard avec une consommation de jetons à peu près identique : GPQA (90,3 → 92,8), HLE (34,1 → 36,5), LiveCodeBench v6 (88,0 → 91,4), IMO-AnswerBench (89,5 → 91,5) et HLE (avec outils) (55,8 → 58,3).

Les modèles d'intelligence artificielle (IA) open source chinois ont considérablement étendu leur présence à l'échelle mondiale, leur taux d'adoption passant de 13 % à près de 30 % de l'utilisation totale en 2025, principalement grâce à Qwen et DeepSeek. Cette tendance a été documentée dans le rapport "State of AI" d'OpenRouter, qui a analysé plus de 100 000 milliards de jetons sur plus de 300 modèles, révélant ainsi le passage d'une domination propriétaire à une concurrence pluraliste et open source à l'échelle mondiale.

Source : Annonce de Qwen3-Max-Thinking

Et vous ?

Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Alibaba a lancé Qwen3-Next, une toute nouvelle architecture de modèle d'IA optimisée pour la compréhension de contextes longs, les paramètres à grande échelle et une efficacité de calcul sans précédent

Alibaba Cloud affirme avoir réduit de 82 % l'utilisation des GPU IA de Nvidia grâce à son nouveau système de mutualisation Aegaeon, qui limite grandement la dépendance des modèles d'IA Qwen aux GPU de Nvidia

Alibaba rend open source la suite de modèles d'IA Qwen3-TTS, offrant une génération multilingue de la parole à très faible latence, ainsi qu'une prise en charge complète du clonage et de la conception vocale
Vous avez lu gratuitement 619 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !