
La startup française d'intelligence artificielle Mistral AI a dévoilé un nouveau modèle open-source qui, selon la société, surpasse les offres similaires de Google et d'OpenAI, ouvrant ainsi la voie à une concurrence accrue sur un marché dominé par les géants américains de la technologie. Le modèle, appelé Mistral Small 3.1, traite à la fois le texte et les images avec seulement 24 milliards de paramètres, soit une fraction de la taille des principaux modèles propriétaires, tout en égalant ou en dépassant leurs performances, selon l'entreprise.
Fin janvier 2025, Mistral AI a dévoilé Mistral Small 3, son nouveau modèle d'IA à 24 milliards de paramètres, développé dans un souci de haute performance et de faible latence. Pour rappel, Mistral AI est une entreprise française fondée en avril 2023, spécialisée dans l'intelligence artificielle générative. Elle développe des grands modèles de langages open source et propriétaires. Mistral AI est considérée comme l'un des leaders européens de l'intelligence artificielle (IA).
Avec une structure optimisée, Mistral Small 3 se positionne comme une alternative ouverte et transparente aux modèles propriétaires, offrant des résultats comparables à des modèles beaucoup plus grands tels que Llama 3.3 70B et Qwen 32B. Caractérisé par une efficacité de calcul, Small 3 serait un choix idéal pour 80 % des applications génératives basées sur l'IA, garantissant des temps de réponse rapides sans compromettre la précision.
Récemment, Mistral AI a lancé un nouveau modèle léger appelé Mistral Small 3.1. Small 3.1 est open-source et capable de traiter du texte et des images avec seulement 24 milliards de paramètres. C'est une fraction de la taille des modèles les plus avancés sur le marché. Par rapport à son prédécesseur Small 3, Small 3.1 offre "des performances textuelles améliorées, une compréhension multimodale et un nombre de jetons étendu (128 000)".
En outre, il peut traiter des données à une vitesse de 150 jetons par seconde. Cette "impressionnante réussite technique" serait due à la stratégie alternative employée par Mistral. L'accent est mis sur les améliorations algorithmiques et l'optimisation de la formation, plutôt que sur le déploiement de toujours plus de GPU pour les nouveaux modèles.
Le fait que Mistral rende ses modèles open-source prouve une fois de plus que l'entreprise souhaite rendre l'IA accessible et n'opte pas pour des modèles fermés comme ceux d'OpenAI. Dans le même temps, elle bénéficie des opportunités de recherche et de développement de la communauté de l'IA au sens large. Cette approche porte ses fruits, puisqu'avec une valeur proche des 6 milliards d'euros, elle peut se targuer d'être la plus importante entreprise d'IA en Europe.
Voici un extrait de l'annonce de Mistral AI :
Nous annonçons aujourd'hui Mistral Small 3.1 : le meilleur modèle dans sa catégorie de poids.
S'appuyant sur Mistral Small 3, ce nouveau modèle est doté de performances textuelles améliorées, d'une compréhension multimodale et d'une fenêtre contextuelle élargie pouvant contenir jusqu'à 128k tokens. Le modèle surpasse des modèles comparables tels que Gemma 3 et GPT-4o Mini, tout en offrant des vitesses d'inférence de 150 tokens par seconde.
Mistral Small 3.1 est publié sous licence Apache 2.0.
Les applications modernes d'intelligence artificielle exigent un mélange de capacités de traitement de texte, de compréhension d'entrées multimodales, de prise en charge de plusieurs langues et de gestion de contextes longs, avec une faible latence et un bon rapport coût-efficacité. Comme le montre le tableau ci-dessous, Mistral Small 3.1 est le premier modèle open source qui non seulement atteint, mais surpasse les performances des principaux petits modèles propriétaires dans tous ces domaines.
S'appuyant sur Mistral Small 3, ce nouveau modèle est doté de performances textuelles améliorées, d'une compréhension multimodale et d'une fenêtre contextuelle élargie pouvant contenir jusqu'à 128k tokens. Le modèle surpasse des modèles comparables tels que Gemma 3 et GPT-4o Mini, tout en offrant des vitesses d'inférence de 150 tokens par seconde.
Mistral Small 3.1 est publié sous licence Apache 2.0.
Les applications modernes d'intelligence artificielle exigent un mélange de capacités de traitement de texte, de compréhension d'entrées multimodales, de prise en charge de plusieurs langues et de gestion de contextes longs, avec une faible latence et un bon rapport coût-efficacité. Comme le montre le tableau ci-dessous, Mistral Small 3.1 est le premier modèle open source qui non seulement atteint, mais surpasse les performances des principaux petits modèles propriétaires dans tous ces domaines.
Présentation de Mistral Small 3.1
Mistral Small 3.1 est un modèle polyvalent conçu pour gérer un large éventail de tâches d'IA générative, notamment le suivi d'instructions, l'assistance à la conversation, la compréhension d'images et l'appel de fonctions. Il constitue une base solide pour les applications d'IA d'entreprise et grand public.
Mistral Small 3.1 peut être utilisé dans diverses applications d'entreprise et grand public qui nécessitent une compréhension multimodale, telles que la vérification de documents, les diagnostics, le traitement d'images sur appareil, l'inspection visuelle pour les contrôles de qualité, la détection d'objets dans les systèmes de sécurité, l'assistance clientèle basée sur l'image et l'assistance générale.
Voici les principales caractéristiques et capacités du modèle, selon Mistral AI :
- Léger : Mistral Small 3.1 pourrait fonctionner avec une seule RTX 4090 ou un Mac avec 32 Go de RAM. Cela en fait un outil idéal pour les cas d'utilisation sur l'appareil.
- Assistance conversationnelle à réponse rapide : Idéale pour les assistants virtuels et autres applications où des réponses rapides et précises sont essentielles.
- Appel de fonction à faible latence : Capable d'exécuter rapidement des fonctions dans le cadre de flux de travail automatisés ou agentiques
- Ajustement précis pour les domaines spécialisés : Mistral Small 3.1 peut être affiné pour se spécialiser dans des domaines spécifiques, créant ainsi des experts en la matière. Ceci est particulièrement utile dans des domaines tels que les conseils juridiques, les diagnostics médicaux et l'assistance technique.
- Une base pour le raisonnement avancé : Nous continuons à être impressionnés par la façon dont la communauté construit sur les modèles ouverts de Mistral. Au cours des dernières semaines, nous avons vu plusieurs excellents modèles de raisonnement construits sur Mistral Small 3, tels que DeepHermes 24B de Nous Research. À cette fin, nous publions des points de contrôle de base et d'instruction pour Mistral Small 3.1 afin de permettre une personnalisation plus poussée du modèle en aval.
Concernant les performances du modèle, voici les résultats publiés par Mistral AI :
- Benchmarks d'instruction de texte
- Multilingue
- Contexte long
Disponibilité
Mistral Small 3.1 est disponible au téléchargement sur le site web de huggingface Mistral Small 3.1 Base et Mistral Small 3.1 Instruct. Il est également possible d'essayer le modèle via l'API ans le playground des développeurs de Mistral AI, La Plateforme. Le modèle est également disponible sur Google Cloud Vertex AI. Mistral Small 3.1 sera également disponible sur NVIDIA NIM dans les semaines à venir.
Source : Mistral AI
Et vous ?


Voir aussi :



Vous avez lu gratuitement 0 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.