IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Mistral AI lance un nouveau grand modèle de langage "Mistral Large" pour rivaliser avec GPT-4
Et sa propre alternative à ChatGPT, l'assistant chat appelé "Le Chat", gratuit en version bêta

Le , par Jade Emy

7PARTAGES

8  0 
La startup parisienne Mistral AI construit progressivement une alternative à OpenAI et Anthropic, comme le montre sa dernière annonce. L'entreprise lance un nouveau modèle phare de grand modèle de langage (LLM) appelé Mistral Large. En ce qui concerne les capacités de raisonnement, il est conçu pour rivaliser avec d'autres modèles de premier plan, tels que GPT-4 et Claude 2. En plus de Mistral Large, la startup lance également sa propre alternative à ChatGPT avec un nouveau service appelé Le Chat. Cet assistant de chat est actuellement disponible en version bêta.

Si vous ne connaissez pas Mistral AI, l'entreprise est plus connue pour sa table de capitalisation, car elle a levé une quantité obscène d'argent en très peu de temps pour développer des modèles d'IA fondamentaux. La société a été officiellement constituée en mai 2023. Quelques semaines plus tard, Mistral AI a levé un fonds d'amorçage de 113 millions de dollars. En décembre, l'entreprise a clôturé un tour de table de 415 millions de dollars, mené par Andreessen Horowitz (a16z).

Fondée par des anciens de Google DeepMind et Meta, Mistral AI s'est positionnée à l'origine comme une entreprise d'IA axée sur l'open source. Si le premier modèle de Mistral AI a été publié sous une licence open source avec accès aux poids du modèle, ce n'est pas le cas de ses modèles plus importants.

Mistral AI :

Nous lançons Mistral Large, notre modèle de langage le plus récent et le plus avancé. Mistral Large est disponible sur la Plateforme. Nous le rendons également disponible sur Azure, notre premier partenaire de distribution.

Mistral Large, le nouveau modèle phare de Mistral AI

Mistral Large est le nouveau modèle de génération de texte à la pointe de la technologie de Mistral AI. Il atteint des capacités de raisonnement de premier plan. Il peut être utilisé pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code.

Selon Mistral AI, Mistral Large obtient d'excellents résultats dans les tests de référence couramment utilisés, ce qui en fait le deuxième modèle au monde généralement disponible via une API (après GPT-4).


Mistral Large serait doté de nouvelles capacités et de nouveaux atouts :

  • Il parle couramment l'anglais, le français, l'espagnol, l'allemand et l'italien, avec une compréhension nuancée de la grammaire et du contexte culturel.
  • Sa fenêtre contextuelle de 32 000 tokens permet de rappeler des informations précises à partir de documents volumineux.
  • Son suivi précis des instructions permet aux développeurs de concevoir leurs politiques de modération : Mistral AI l'a utilisé pour mettre en place la modération au niveau du système du Chat.
  • Il est nativement capable d'appeler des fonctions. Ceci, ainsi que le mode de sortie contraint, mis en œuvre sur la Plateforme, permet le développement d'applications et la modernisation de la pile technologique à grande échelle.


Partenariat de Mistral AI avec Microsoft pour fournir ses modèles sur Azure

Mistral AI :

Chez Mistral, notre mission est de rendre l'IA de pointe omniprésente. C'est pourquoi nous annonçons aujourd'hui que nous apportons nos modèles ouverts et commerciaux à Azure. La confiance de Microsoft dans notre modèle est un pas en avant dans notre voyage !
Les modèles de Mistral AI sont désormais disponibles via :

  • La Plateforme : hébergée en toute sécurité sur l'infrastructure de Mistral en Europe, ce point d'accès permet aux développeurs de créer des applications et des services à travers une gamme complète de modèles.
  • Azure : Mistral Large est disponible via Azure AI Studio et Azure Machine Learning, avec une expérience utilisateur aussi transparente que les API de Mistral. Des clients bêta l'ont utilisé avec succès.
  • Auto-déploiement : les modèles de Mistral peuvent être déployés sur votre environnement pour les cas d'utilisation les plus sensibles avec un accès aux poids de modèles. Mistral conseille de lire les histoires de réussite sur ce type de déploiement, et de contacter son équipe pour plus de détails.


Capacités de Mistral Large

Mistral AI a comparé les performances de Mistral Large aux meilleurs modèles LLM sur des benchmarks couramment utilisés. Voici les résultats :

  • Raisonnement et connaissances

    Mistral Large présente de puissantes capacités de raisonnement. La figure suivante présente les performances des modèles pré-entraînés sur des critères de référence standard.

  • Capacités multilingues

    Mistral Large dispose de capacités multilingues natives. Il surpasse largement LLaMA 2 70B sur les benchmarks HellaSwag, Arc Challenge et MMLU en français, allemand, espagnol et italien.

  • Maths et codage

    Mistral Large affiche les meilleures performances dans les tâches de codage et de mathématiques. Dans le tableau ci-dessous, Mistral rapporte les performances sur une série de repères populaires afin d'évaluer les performances de codage et de mathématiques pour certains des modèles LLM les plus performants.



Un nouveau Mistral Small, optimisé pour les charges de travail à faible latence

Mistral AI :

Parallèlement à Mistral Large, nous lançons un nouveau modèle optimisé, Mistral Small, optimisé pour la latence et le coût. Mistral Small est plus performant que Mixtral 8x7B et présente une latence plus faible, ce qui en fait une solution intermédiaire raffinée entre notre offre à poids ouvert et notre modèle phare.
Mistral Small bénéficie des mêmes innovations que Mistral Large en ce qui concerne l'activation de RAG et l'appel de fonctions. Voici l'offre de Mistral :

  • Des points d'extrémité à poids ouvert à des prix compétitifs. Il s'agit de open-mistral-7B et open-mixtral-8x7b.
  • De nouveaux modèles optimisés, mistral-small-2402 et mistral-large-2402. Mistral maintient mistral-medium.


Les benchmarks de Mistral donnent une vue d'ensemble des compromis performance/coût. Au-delà de l'offre de nouveaux modèles, Mistral autorise la tarification multidevises pour la gestion des organisations et met à jour les niveaux de service sur La Plateforme. Ils ont également beaucoup progressé dans la réduction de la latence de tous les points d'extrémité.

Format JSON et appel de fonction

Le mode de format JSON force la sortie du modèle de langage à être un JSON valide. Cette fonctionnalité permet aux développeurs d'interagir avec les modèles de manière plus naturelle afin d'extraire des informations dans un format structuré qui peut être facilement utilisé dans le reste de leurs pipelines.

L'appel de fonction permet aux développeurs d'interfacer les points d'extrémité de Mistral avec un ensemble de leurs propres outils, permettant des interactions plus complexes avec le code interne, les API ou les bases de données.

L'appel de fonction et le format JSON ne sont disponibles que sur mistral-small et mistral-large. Mistral ajoutera bientôt le formatage à tous les points d'extrémité, ainsi que des définitions de format plus fines.

Source : Mistral AI

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous que Mistral Large soit crédible ou pertinent ?

Voir aussi :

Le modèle de langage open source Mixtral 8x7B de la startup française Mistral AI écrase la concurrence, d'après un sujet de recherche

Mistral Next : certains des premiers testeurs estiment que ce modèle pourrait être meilleur que GPT-4 d'OpenAI et Gemini Ultra de Google. Le prototype du LLM disponible en mode chat direct sur LMSYS

Le PDG de Mistral confirme qu'un modèle d'IA open source de l'entreprise avec des performances proches de celles de GPT-4 a fait l'objet de fuite, ces résultats accentuent la pression sur OpenAI

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/04/2024 à 8:30
Citation Envoyé par Anthony Voir le message
"Lorsque la bulle Internet a éclaté la première fois, il s'agissait d'un battage médiatique. Il ne s'agit pas ici de battage médiatique", a déclaré Jamie Dimon, PDG de JPMorgan Chase, au sujet du boom de l'IA en février. "C'est une réalité."
Il y a des gens qui ne partagent pas ce point de vue.

Le temps nous dira qui a raison.
0  0