IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La startup française d'IA Mistral a publié ses premiers modèles d'IA générative "Les Ministraux" pour ordinateurs portables et mobiles
Ils seraient plus performants que Llama et Gemma

Le , par Jade Emy

24PARTAGES

7  0 
La startup française d'IA Mistral a publié ses premiers modèles d'IA générative, "Les Ministraux", conçus pour être exécutés sur des appareils périphériques, tels que les ordinateurs portables et les téléphones. Ils seraient plus performants que Llama et Gemma ainsi que Mistral 7B dans plusieurs tests d'IA conçus pour évaluer les capacités de suivi des instructions et de résolution des problèmes.

Mistral AI est une entreprise française spécialisée dans les produits d'intelligence artificielle (IA). Fondée en avril 2023 par d'anciens employés de Meta Platforms et de Google DeepMind, l'entreprise se concentre sur la production de grands modèles de langage open source. En juillet 2024, Mistral AI a annoncé la sortie de Large 2, son nouveau modèle phare dont les capacités de génération de code, de mathématiques et de raisonnement sont considérablement accrues. Mistral AI a également ajouté un support multilingue amélioré et des capacités d'appel de fonctions avancées avec Large 2.

Le 16 octobre, la startup française a publié ses premiers modèles d'IA générative conçus pour être exécutés sur des appareils périphériques, tels que les ordinateurs portables et les téléphones. La nouvelle famille de modèles, que Mistral appelle "Les Ministraux", peut être utilisée ou réglée pour une variété d'applications, de la génération de texte de base au travail en conjonction avec des modèles plus performants pour accomplir des tâches.

Deux modèles Les Ministraux sont disponibles, Ministral 3B et Ministral 8B, qui ont tous deux une fenêtre contextuelle de 128 000 tokens, ce qui signifie qu'ils peuvent ingérer à peu près la longueur d'un livre de 50 pages. De plus, Mistral affirme que Ministral 3B et Ministral 8B surpassent les modèles Llama et Gemma comparables, ainsi que son propre Mistral 7B, dans plusieurs tests d'IA conçus pour évaluer les capacités de suivi des instructions et de résolution des problèmes.


Performances des modèles "Les Ministraux"

  • Comparaison des modèles Ministral 3B et 8B aux modèles Gemma 2 2B, Llama 3.2 3B, Llama 3.1 8B et Mistral 7B

  • Comparaison des modèles de base Ministral 3B et 8B aux modèles Gemma 2 2B, Llama 3.2 3B, Llama 3.1 8B et Mistral 7B

  • Comparaison des modèles Ministral 3B et 8B Instruct aux modèles Gemma 2 2B, Llama 3.2 3B, Llama 3.1 8B, Gemma 2 9B et Mistral 7B

  • Comparaison des modèles Instruct de la famille 3B - Gemma 2 2B, Llama 3.2 3B et Ministral 3B. La figure montre les améliorations apportées par le Ministral 3B par rapport au Mistral 7B, beaucoup plus grand.

  • Comparaison des modèles Instruct de la famille 8B - Gemma 2 9B, Llama 3.1 8B, Mistral 7B et Ministral 8B.



Voici la présentation des modèles "Les Ministraux" par Mistral AI :

Citation Envoyé par Mistral AI
À l'occasion du premier anniversaire de la sortie de Mistral 7B, le modèle qui a révolutionné l'innovation en matière d'IA à la frontière indépendante pour des millions de personnes, nous sommes fiers de présenter deux nouveaux modèles de pointe pour l'informatique sur appareil et les cas d'utilisation à la pointe de la technologie. Nous les appelons les Ministraux : Ministral 3B et Ministral 8B.

Ces modèles établissent une nouvelle frontière en matière de connaissance, de bon sens, de raisonnement, d'appel de fonction et d'efficacité dans la catégorie inférieure à 10B, et peuvent être utilisés ou adaptés à une variété d'utilisations, de l'orchestration de flux de travail agentiques à la création de travailleurs spécialisés. Les deux modèles supportent jusqu'à 128k de longueur de contexte (actuellement 32k sur vLLM) et Ministral 8B dispose d'un modèle d'attention intercalaire spécial à fenêtre coulissante pour une inférence plus rapide et moins gourmande en mémoire.

Nos clients et partenaires les plus innovants demandent de plus en plus souvent une inférence locale et respectueuse de la vie privée pour des applications critiques telles que la traduction sur appareil, les assistants intelligents sans internet, l'analyse locale et la robotique autonome. Les Ministraux ont été conçus pour fournir une solution efficace en termes de calcul et de faible latence pour ces scénarios. De l'amateur indépendant à l'équipe de production mondiale, les Ministraux répondent à une grande variété de cas d'utilisation.

Utilisés en conjonction avec des modèles de langage plus larges tels que Mistral Large, les Ministraux sont également des intermédiaires efficaces pour l'appel de fonctions dans des flux de travail agentiques à plusieurs étapes. Ils peuvent être réglés pour gérer l'analyse des entrées, le routage des tâches et l'appel des API en fonction de l'intention de l'utilisateur dans de multiples contextes, avec une latence et un coût extrêmement faibles.

Source : Mistral AI

Et vous ?

Quel est votre avis sur cette annonce ?
Pensez-vous que ces tests sont crédibles ou pertinents ?

Voir aussi :

Les agents de Mistral AI, des systèmes autonomes alimentés par des LLM, peuvent planifier, utiliser des outils, effectuer des étapes de traitement, pour atteindre des objectifs spécifiques

Apple aurait développé une technique qui permet d'exécuter les modèles d'IA localement sur l'iPhone plutôt que sur le cloud, selon une étude

"Chat With RTX" de NVIDIA, un chatbot IA qui fonctionne localement sur votre PC contrairement à ChatGPT. S'il contribue ainsi à la protection de la vie privée, le chatbot présente déjà des limites

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 17/10/2024 à 3:37
C'est comme miner du Bitcoin via microprocesseur...Rendement horrible
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 17/10/2024 à 15:46
Citation Envoyé par Zeeraptor Voir le message
C'est comme miner du Bitcoin via microprocesseur...Rendement horrible
Je lisais un post sur reddit, on peut faire tourner ça sur un pi zero 2 avec 512 mo de ram...

Un quart d'heure pour savoir ce que c'est qu'un T-rex avec TinyLama 1.1b mais c'est magnifique de pouvoir avoir ça en local chez soi.

It’s ok because making entirely useless projects is half the fun of boards like raspberry pi
1  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 26/10/2024 à 16:17
@Jules34

En terme de coding...l'exploit est là il est vrai...Ça compresse le tableau des liens d’adressage d'une façon ou d'une autre
0  0