Si vous ne connaissez pas Mistral AI, l'entreprise est plus connue pour sa table de capitalisation, car elle a levé une quantité obscène d'argent en très peu de temps pour développer des modèles d'IA fondamentaux. La société a été officiellement constituée en mai 2023. Quelques semaines plus tard, Mistral AI a levé un fonds d'amorçage de 113 millions de dollars. En décembre, l'entreprise a clôturé un tour de table de 415 millions de dollars, mené par Andreessen Horowitz (a16z).
Fondée par des anciens de Google DeepMind et Meta, Mistral AI s'est positionnée à l'origine comme une entreprise d'IA axée sur l'open source. Si le premier modèle de Mistral AI a été publié sous une licence open source avec accès aux poids du modèle, ce n'est pas le cas de ses modèles plus importants.
Mistral AI :
Nous lançons Mistral Large, notre modèle de langage le plus récent et le plus avancé. Mistral Large est disponible sur la Plateforme. Nous le rendons également disponible sur Azure, notre premier partenaire de distribution.
Nous lançons Mistral Large, notre modèle de langage le plus récent et le plus avancé. Mistral Large est disponible sur la Plateforme. Nous le rendons également disponible sur Azure, notre premier partenaire de distribution.
Mistral Large, le nouveau modèle phare de Mistral AI
Mistral Large est le nouveau modèle de génération de texte à la pointe de la technologie de Mistral AI. Il atteint des capacités de raisonnement de premier plan. Il peut être utilisé pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code.
Selon Mistral AI, Mistral Large obtient d'excellents résultats dans les tests de référence couramment utilisés, ce qui en fait le deuxième modèle au monde généralement disponible via une API (après GPT-4).
Mistral Large serait doté de nouvelles capacités et de nouveaux atouts :
- Il parle couramment l'anglais, le français, l'espagnol, l'allemand et l'italien, avec une compréhension nuancée de la grammaire et du contexte culturel.
- Sa fenêtre contextuelle de 32 000 tokens permet de rappeler des informations précises à partir de documents volumineux.
- Son suivi précis des instructions permet aux développeurs de concevoir leurs politiques de modération : Mistral AI l'a utilisé pour mettre en place la modération au niveau du système du Chat.
- Il est nativement capable d'appeler des fonctions. Ceci, ainsi que le mode de sortie contraint, mis en œuvre sur la Plateforme, permet le développement d'applications et la modernisation de la pile technologique à grande échelle.
Partenariat de Mistral AI avec Microsoft pour fournir ses modèles sur Azure
Mistral AI :
Chez Mistral, notre mission est de rendre l'IA de pointe omniprésente. C'est pourquoi nous annonçons aujourd'hui que nous apportons nos modèles ouverts et commerciaux à Azure. La confiance de Microsoft dans notre modèle est un pas en avant dans notre voyage !
Chez Mistral, notre mission est de rendre l'IA de pointe omniprésente. C'est pourquoi nous annonçons aujourd'hui que nous apportons nos modèles ouverts et commerciaux à Azure. La confiance de Microsoft dans notre modèle est un pas en avant dans notre voyage !
- La Plateforme : hébergée en toute sécurité sur l'infrastructure de Mistral en Europe, ce point d'accès permet aux développeurs de créer des applications et des services à travers une gamme complète de modèles.
- Azure : Mistral Large est disponible via Azure AI Studio et Azure Machine Learning, avec une expérience utilisateur aussi transparente que les API de Mistral. Des clients bêta l'ont utilisé avec succès.
- Auto-déploiement : les modèles de Mistral peuvent être déployés sur votre environnement pour les cas d'utilisation les plus sensibles avec un accès aux poids de modèles. Mistral conseille de lire les histoires de réussite sur ce type de déploiement, et de contacter son équipe pour plus de détails.
Capacités de Mistral Large
Mistral AI a comparé les performances de Mistral Large aux meilleurs modèles LLM sur des benchmarks couramment utilisés. Voici les résultats :
- Raisonnement et connaissances
Mistral Large présente de puissantes capacités de raisonnement. La figure suivante présente les performances des modèles pré-entraînés sur des critères de référence standard. - Capacités multilingues
Mistral Large dispose de capacités multilingues natives. Il surpasse largement LLaMA 2 70B sur les benchmarks HellaSwag, Arc Challenge et MMLU en français, allemand, espagnol et italien. - Maths et codage
Mistral Large affiche les meilleures performances dans les tâches de codage et de mathématiques. Dans le tableau ci-dessous, Mistral rapporte les performances sur une série de repères populaires afin d'évaluer les performances de codage et de mathématiques pour certains des modèles LLM les plus performants.
Un nouveau Mistral Small, optimisé pour les charges de travail à faible latence
Mistral AI :
Parallèlement à Mistral Large, nous lançons un nouveau modèle optimisé, Mistral Small, optimisé pour la latence et le coût. Mistral Small est plus performant que Mixtral 8x7B et présente une latence plus faible, ce qui en fait une solution intermédiaire raffinée entre notre offre à poids ouvert et notre modèle phare.
Parallèlement à Mistral Large, nous lançons un nouveau modèle optimisé, Mistral Small, optimisé pour la latence et le coût. Mistral Small est plus performant que Mixtral 8x7B et présente une latence plus faible, ce qui en fait une solution intermédiaire raffinée entre notre offre à poids ouvert et notre modèle phare.
- Des points d'extrémité à poids ouvert à des prix compétitifs. Il s'agit de open-mistral-7B et open-mixtral-8x7b.
- De nouveaux modèles optimisés, mistral-small-2402 et mistral-large-2402. Mistral maintient mistral-medium.
Les benchmarks de Mistral donnent une vue d'ensemble des compromis performance/coût. Au-delà de l'offre de nouveaux modèles, Mistral autorise la tarification multidevises pour la gestion des organisations et met à jour les niveaux de service sur La Plateforme. Ils ont également beaucoup progressé dans la réduction de la latence de tous les points d'extrémité.
Format JSON et appel de fonction
Le mode de format JSON force la sortie du modèle de langage à être un JSON valide. Cette fonctionnalité permet aux développeurs d'interagir avec les modèles de manière plus naturelle afin d'extraire des informations dans un format structuré qui peut être facilement utilisé dans le reste de leurs pipelines.
L'appel de fonction permet aux développeurs d'interfacer les points d'extrémité de Mistral avec un ensemble de leurs propres outils, permettant des interactions plus complexes avec le code interne, les API ou les bases de données.
L'appel de fonction et le format JSON ne sont disponibles que sur mistral-small et mistral-large. Mistral ajoutera bientôt le formatage à tous les points d'extrémité, ainsi que des définitions de format plus fines.
Source : Mistral AI
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous que Mistral Large soit crédible ou pertinent ?
Voir aussi :
Le modèle de langage open source Mixtral 8x7B de la startup française Mistral AI écrase la concurrence, d'après un sujet de recherche
Mistral Next : certains des premiers testeurs estiment que ce modèle pourrait être meilleur que GPT-4 d'OpenAI et Gemini Ultra de Google. Le prototype du LLM disponible en mode chat direct sur LMSYS
Le PDG de Mistral confirme qu'un modèle d'IA open source de l'entreprise avec des performances proches de celles de GPT-4 a fait l'objet de fuite, ces résultats accentuent la pression sur OpenAI