IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La start-up française d'IA Mistral lance ses nouveaux modèles d'IA open source Mistral 3, dotés de performances de pointe, afin de rester dans la course face à OpenAI et Google

Le , par Anthony

5PARTAGES

8  0 
La start-up française Mistral a dévoilé ses derniers modèles d'intelligence artificielle (IA), Mistral 3, afin de concurrencer les géants du secteur tels qu'OpenAI et Google. Ce lancement comprend à la fois des modèles de grande et de petite taille, conçus pour une variété d'applications, allant des flux de travail en entreprise à la robotique et aux drones. Axés sur l'accessibilité open source, ces modèles promettent des performances élevées et une rentabilité accrue, offrant ainsi une plus grande flexibilité aux développeurs. L'initiative ambitieuse de Mistral fait suite à une importante levée de fonds, marquant son ascension en tant qu'acteur clé du secteur européen de l'IA.

Mistral AI SAS est une entreprise française spécialisée dans l'IA, dont le siège social est situé à Paris. Fondée en 2023, elle propose des grands modèles de langage (LLM) ouverts, avec des modèles d'IA à la fois open source et propriétaires. Mistral s'est imposée comme l'une des principales entreprises européennes dans le domaine de l'IA et a levé 1,7 milliard d'euros lors d'un tour de table en septembre 2025. Le géant néerlandais d'équipements pour puces ASML a contribué à hauteur de 1,3 milliard d'euros à cette levée de fonds, à laquelle Nvidia a également participé. Au terme de ce tour de table, la start-up, qui bénéficiait auparavant du soutien de Microsoft et d'Andreessen Horowitz, a atteint une valorisation de 11,7 milliards d'euros.

Le mardi 2 décembre 2025, la start-up spécialisée dans l'IA Mistral a publié une nouvelle suite de modèles afin de rester dans la course face aux laboratoires d'IA leaders tels que Google, OpenAI et DeepSeek. L'annonce de la société française fait suite à la publication de modèles par DeepSeek et Google ces dernières semaines, alors que les laboratoires d'IA du monde entier s'efforcent de rester à la pointe de la recherche tout en développant leurs activités commerciales.

Le lancement comprend Mistral Large 3, un modèle de grande taille que l'entreprise présente comme « le meilleur modèle multimodal et multilingue à poids ouvert au monde ». Il s'agit du modèle d'IA le plus performant de la société à ce jour. Ce modèle propose un mélange d'experts peu dense formé de 41 milliards de paramètres actifs et de 675 milliards de paramètres au total. La suite Mistral 3 comprend également la série Ministral 3, composée de trois modèles compacts de pointe (14B, 8B et 3B), qui, selon la start-up, peuvent être utilisés dans la robotique, les appareils et les drones. Tous les modèles de la gamme sont publiés sous licence Apache 2.0.

« Mistral 3 établit une nouvelle norme en matière de disponibilité mondiale de l'IA et ouvre de nouvelles possibilités pour les entreprises », a déclaré la société dans un communiqué. « Cette gamme de modèles étend encore davantage les capacités d'IA appliquée de nos clients à la robotique, aux drones autonomes et aux petites applications sur appareil sans accès au réseau, ainsi qu'aux flux de travail agentifs d'entreprise les plus importants au monde. »


La famille Mistral 3 est disponible sur Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI et Together AI. Il sera également bientôt disponible sur NVIDIA NIM et AWS SageMaker.

Mistral Large 3 : un modèle ouvert à la pointe de la technologie

Mistral présente Large 3 comme « l'un des meilleurs modèles ouverts permissifs au monde ». Entraîné à partir de zéro sur 3 000 GPU H200 de NVIDIA, Mistral Large 3 est le premier modèle de type « mélange d'experts » de Mistral depuis la série Mixtral et représente une avancée majeure dans le domaine du pré-entraînement chez Mistral. Selon la société, après l'entraînement, le modèle atteint la parité avec les meilleurs modèles à poids ouverts optimisés pour l'instruction sur le marché en matière de requêtes générales, tout en démontrant une compréhension des images et des performances de premier ordre dans les conversations multilingues.


Mistral Large 3 fait son entrée à la deuxième place du classement LMArena dans la catégorie des modèles OSS sans raisonnement (et à la sixième place parmi tous les modèles OSS).


Le nouveau modèle de grande taille de Mistral offre de puissantes capacités agentiques et est conçu pour les assistants IA, les systèmes à enrichissement contextuel, les charges de travail scientifiques et les flux de travail d'entreprise complexes, a déclaré la société.

Mistral a publié les versions de base et optimisée de Mistral Large 3 sous licence Apache 2.0, offrant ainsi une base solide pour une personnalisation plus poussée au sein des communautés d'entreprises et de développeurs. Une version avec raisonnement devant bientôt être disponible.


Ministral 3 : une intelligence de pointe à la frontière

Pour les cas d'utilisation en périphérie et locaux, Mistral a lancé la série Ministral 3, disponible en trois tailles de modèles : paramètres 3B, 8B et 14B. Ministral 3, est suffisamment petit pour fonctionner dans des drones, des voitures, des robots, des téléphones et des ordinateurs portables.

« Les modèles compacts offrent des avantages pour la plupart des applications concrètes : coût d'inférence réduit, latence réduite et performances spécifiques au domaine », a déclaré Mistral. « Ils peuvent être personnalisés pour surpasser les modèles plus grands sur des flux de travail spécifiques et atteindre des performances de pointe pour leur taille. »


Pour chaque taille de modèle, la société propose à la communauté des variantes de base, d'instruction et de raisonnement, chacune dotée de capacités de compréhension des images, le tout sous licence Apache 2.0. Associée aux capacités multimodales et multilingues natives des modèles, la famille Ministral 3 offre un modèle adapté aux besoins des entreprises ou des développeurs.


Ministral 3 offre « le meilleur rapport coût-performance de tous les modèles OSS », selon la société. Dans les cas d'utilisation réels, le nombre de jetons générés et la taille du modèle ont une importance égale. Les modèles Ministral instruct égalent ou surpassent les performances des modèles comparables tout en produisant souvent un nombre de jetons nettement inférieur.


Dans les configurations où la précision est la seule préoccupation, les variantes de raisonnement Ministral peuvent réfléchir plus longtemps pour produire une précision de pointe dans leur catégorie de poids, par exemple 85 % sur AIME '25 avec la variante 14B.


Ministral 3 peut être déployé sur un seul processeur graphique (GPU), ce qui, selon l'entreprise, réduit les coûts d'exploitation et accélère les itérations.

« Le prochain chapitre de l'IA n'est pas seulement plus ambitieux, il est aussi plus intelligent, plus rapide et plus ouvert », a déclaré l'entreprise. « Ensemble, nous construisons une ère d'intelligence distribuée. »

Mistral, NVIDIA, vLLM et Red Hat s'associent pour proposer une version plus rapide et plus accessible de Mistral 3

Développé en collaboration avec vLLM et Red Hat, Mistral Large 3 offre une accessibilité élevée à la communauté open source. Mistral a publié un point de contrôle au format NVFP4, créé avec llm-compressor. Ce point de contrôle optimisé permet aux développeurs d'exécuter Mistral Large 3 efficacement sur les systèmes Blackwell NVL72 et sur un seul nœud 8×A100 ou 8×H100 à l'aide de vLLM.

Selon Mistral, la fourniture de modèles d'IA open source avancés nécessite une optimisation étendue qui a été réalisée grâce à un partenariat avec NVIDIA. La start-up a indiqué que tous les nouveaux modèles Mistral 3, de Large 3 à Ministral 3, ont été entraînés sur des GPU NVIDIA Hopper afin d'exploiter la mémoire HBM3e à haut débit pour les charges de travail à l'échelle de la frontière.

« L'approche de co-conception extrême de NVIDIA réunit le matériel, les logiciels et les modèles. Les ingénieurs de NVIDIA ont permis une prise en charge efficace de l'inférence pour TensorRT-LLM et SGLang pour toute la gamme Mistral 3, afin d'assurer une exécution efficace à faible précision », a déclaré la start-up.

Pour l'architecture MoE éparse de Large 3, NVIDIA a intégré les noyaux Blackwell attention et MoE de pointe, ajouté la prise en charge du service désagrégé de préremplissage/décodage et collaboré avec Mistral sur le décodage spéculatif, permettant ainsi aux développeurs de traiter efficacement des charges de travail à long contexte et à haut débit sur GB200 NVL72 et au-delà. À la périphérie, NVIDIA a permis des déploiements optimisés des modèles Ministral sur DGX Spark, les PC et ordinateurs portables RTX et les appareils Jetson, offrant aux développeurs un chemin cohérent et hautement performant pour exécuter ces...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !