IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La startup française Mistral AI publie un modèle d'IA open source de 7,3 milliards de paramètres appelé "Mistral 7B",
Qui serait plus performant que le modèle d'IA Llama 2 13B de Meta

Le , par Mathis Lucas

0PARTAGES

5  0 
Les grands modèles de langage (LLM) open source commencent à se multiplier malgré les préoccupations liées aux potentiels mauvais usages. La startup d'IA française Mistral AI vient de publier son premier modèle de langage open source baptisé Mistral 7B avec 7,3 milliards de paramètres. En dépit de sa taille relativement petite, Mistral 7B serait beaucoup plus performant que modèle Llama 2 de Meta. Le modèle de Meta comprend 13 milliards de paramètres. Mistral 7B peut être téléchargé par différents canaux, dont un fichier torrent de 13,4 Go. La société a également annoncé avoir lancé un dépôt GitHub et un canal Discord pour la collaboration et le dépannage.

Mistral AI veut démocratiser l'accès à l'IA et réduire la taille des modèles de langage

Le modèle open source, appelé Mistral 7B, peut traiter des tâches en anglais tout en offrant des capacités de codage naturel, ce qui en fait une nouvelle option pour de nombreux cas d'utilisation centrés sur l'entreprise. Mistral AI a annoncés que Mistral 7B sera suivi par des modèles plus importants et des offres commerciales. « Nous disposons de méthodes de formation qui nous rendent plus efficaces et deux fois moins coûteuses à mettre en œuvre », a déclaré Arthur Mensch, directeur général de Mistral AI, lors d'un entretien avec Bloomberg. En plus de vouloir démocratiser l'IA, le but de l'entreprise semble de réduire considérablement la taille des modèles.

Avec 7 milliards de paramètres, Mistral 7B est plus petit que Llama 2 13B qui comprend 13 milliards de paramètres, mais serait beaucoup plus performant. En effet, les modèles de base - tels que GPT-3 (le plus grand modèle de langage à ce jour avec environ 175 milliards de paramètres) et GPT-4 (OpenAI n'a pas dévoilé le nombre de paramètres de ce modèle) - peuvent faire beaucoup plus, mais sont beaucoup plus coûteux et difficiles à exécuter, ce qui les conduit à être disponibles uniquement par le biais d'API ou d'accès à distance. Mistral 7B veut offrir des capacités similaires à ceux des plus grands LLM avec un coût de calcul considérablement plus faible.


« Notre ambition est de devenir le principal soutien de la communauté ouverte de l'IA générative et d'amener les modèles ouverts à des performances de pointe. Les performances de Mistral 7B démontrent ce que les petits modèles d'IA peuvent faire avec suffisamment de conviction. C'est le résultat de trois mois de travail intense, au cours desquels nous avons rassemblé l'équipe d'IA de Mistral, reconstruit une pile MLops très performante et conçu un pipeline très sophistiqué pour le traitement de données, en partant de zéro », a écrit l'équipe de Mistral AI dans un billet de blogue accompagnant la publication du modèle. Le billet de blogue indique :

  • Mistral 7B surpasse Llama 2 13B sur tous les points de référence ;
  • Mistral 7B surpasse Llama 1 34B (un modèle de 34 milliards de paramètres) sur de nombreux points de référence ;
  • Mistral 7B approche les performances de CodeLlama 7B sur le code, tout en restant performant sur les tâches en anglais ;
  • Mistral 7B utilise l'approche GQA (Grouped-query attention) pour une inférence plus rapide ;
  • Mistral 7B utilise l'approche SWA (Sliding Window Attention) pour traiter des séquences plus longues à moindre coût.


Selon le billet de blogue, dans le test MMLU (Massive Multitask Language Understanding) - un test qui couvre 57 sujets tels que les mathématiques, l'histoire des États-Unis, l'informatique, le droit, etc. - le nouveau modèle a obtenu une précision de 60,1 %, alors que Llama 2 7B et 13B n'ont obtenu qu'un peu plus de 44 % et 55 %, respectivement. Dans les tests portant sur "le raisonnement de bon sens" et la compréhension de la lecture, Mistral 7B a surpassé les deux modèles Llama avec une précision de 69 % et 64 %, respectivement. Le seul domaine dans lequel le Llama 2 13B a égalé le Mistral 7B a été le test de connaissance du monde.

Selon Mistral, cela pourrait être dû au nombre limité de paramètres du modèle, qui restreint la quantité de connaissances qu'il peut comprimer. En ce qui concerne les tâches de codage, bien que Mistral qualifie le nouveau modèle de "largement supérieur", les résultats des tests de référence montrent qu'il ne surpasse toujours pas le modèle CodeLlama 7B, qui a été finement ajusté. Les données montrent que le modèle de Meta a fourni une précision de 31,1 % et 52,5 % dans les tests Humaneval 0-shot et MBPP 3-shot (sous-ensemble vérifié à la main), tandis que Mistral 7B suivait de près avec une précision de 30,5 % et 47,5 %, respectivement.

Mistral AI tente d'échapper aux problèmes liés aux licences des modèles open source

Mistral AI poursuit ses projets visant à tenir tête aux plus grands acteurs de la course à l'IA, tels que Google et OpenAI, et démocratiser la technologie. À cet effet, elle a publié mercredi son tout premier modèle d'IA open source. Plus important encore, le modèle a été publié sous la licence Apache 2.0, une licence très permissive qui ne comporte aucune restriction d'utilisation ou de reproduction au-delà de l'attribution. Il peut être utilisé aussi bien par un amateur que par une multinationale ou un gouvernement, pour autant qu'ils disposent d'un système capable de l'exécuter localement ou qu'ils soient prêts à payer pour les ressources en nuage nécessaires.

Fondée au début de l'année par des anciens de DeepMind et Meta de Google, Mistral AI s'est donné pour mission de rendre l'IA utile pour les entreprises en exploitant uniquement les données accessibles a public et celles fournies par les clients. Avec la sortie de Mistral 7B, elle entame ce voyage en fournissant aux équipes un modèle de petite taille capable de résumer rapidement des textes, les classer, les compléter et compléter des codes. Bien qu'il ne s'agisse que d'un début, la démonstration par Mistral d'un petit modèle offrant des performances élevées pour toute une série de tâches pourrait représenter des avantages majeurs pour les entreprises.


Les modèles open source actuels, tels que Llama 2 de Meta et Falcon 180B de l'Institut de l'innovation technologique (TII) d'Abu Dhabi, sont considéré par les critiques comme n'étant pas totalement open source. Ils sont publiés sous des licences interdisant certaines formes d'utilisation. Au sein de la communauté, il y a un débat intense qui vise à confirmer ou non le statut open source de ces modèles. Selon les développeurs de ces modèles, les licences restrictives permettent d'encadrer l'utilisation des modèles et d'empêcher qu'ils servent à de mauvaises causes, mais les critiques affirment que ces restrictions ne sont pas conformes à l'esprit de l'open source.

Google et OpenAI, deux principaux pionniers de l'IA, ont maintenu leurs modèles d'IA fermés, affirmant qu'ils s'inquiètent du fait que les LLM puissent être manipulés pour diffuser des infox ou d'autres contenus potentiellement dangereux. OpenAI a refusé de lever le voile sur GPT-4, son plus puissant LLM à ce jour (on ignore même le nombre de paramètres du modèle) et Google a révélé uniquement que Bard est basé sur son LLM LaMDA de 137 milliards de paramètres. Cependant, les partisans des logiciels libres affirment que le fait de maintenir ces systèmes fermés freine injustement l'innovation et entrave leur potentiel d'amélioration du monde.

Dans le cas de Mistral 7B, bien que la licence soit très permissive, le modèle lui-même a été développé en privé, avec des fonds privés, et les ensembles de données et les poids sont également privés. C'est ce qui semble constituer le modèle commercial de Mistral : le modèle est open source et libre d'utilisation, mais si vous voulez aller plus loin, vous aurez besoin de leur produit payant. « Notre offre commerciale sera distribuée sous forme de solutions en boîte blanche, en mettant à disposition les poids et les sources de code. Nous travaillons activement sur des solutions hébergées et des déploiements dédiés pour les entreprises », indique l'équipe.

Mistral AI prévoit de s'appuyer sur ces travaux pour lancer un modèle plus grand, capable de mieux raisonner et de travailler dans plusieurs langues, qui devrait faire ses débuts en 2024. Pour l'instant, Mistral 7B peut être déployé n'importe où (localement ou sur les services cloud AWS, GCP ou Azure) en utilisant l'implémentation de référence de l'entreprise, le serveur d'inférence vLLM et Skypilot. La startup, qui est basée à Paris, a récemment fait les gros titres avec son logo unique Word Art et un tour de table record de 118 millions de dollars qui est considéré comme le plus grand tour de table de l'histoire de l'Europe.

Source : Mistral AI

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du modèle Mistral 7B et de ses performances ?
À votre avis, les modèles de petite taille sont-ils l'avenir de l'IA générative ?
Selon vous, pourquoi Mistral 7B a-t-il été publié sous la licence Apache 2.0 ?
Quels avantages cette licence offre-t-elles aux utilisateurs potentiels de Mistral 7B ?
Pourquoi le statut open source des modèles de Llama 2 et Falcon 180B est-il remis en cause ?

Voir aussi

Falcon 180B : un modèle d'IA open source avec 180 milliards de paramètres entraînés sur 3 500 milliards de jetons, il serait plus performant que le modèle Llama 2 de Meta et égale PaLM-2 de Google

Le modèle LLamA-2 de Meta, qui vient d'être publié, ne serait pas open source, de l'avis de Alessio Fanelli, Ingénieur logiciel associé chez Decibel

« L'open source aura un impact plus important sur l'avenir des modèles de langage que le grand public ne le pense », selon un ingénieur logiciel qui affirme que l'IA open source est plus sûre

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 01/10/2023 à 10:59
Perso, je me pose une question que jamais aucun média ne pose quand ils nous parlent de startup...

Les médias commencent toujours leur article par un "startup ... évaluée à xxx millions de dollars" quand ce n'est pas "évaluée à x milliard", histoire de donner à la startup en question une importance (que souvent elle n'a pas!). A remarquer qu'il ne viendrait jamais à l'idée d'un média d'écrire un "Total, multinationale active dans l'énergie, évaluée à xxx milliards"

Nous avons donc ici un "Mistral : la startup française d'IA évaluée à 260 millions de dollars"

Ok! Alors je pose ma question:

Qui a évalué cette startup à 260 millions? Ses fondateurs? Les financiers qui y ont mis du pognon et espèrent un retour rapide sur investissement?
9  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 01/10/2023 à 10:59
Les criminels et autres cyber délinquants vont leur dire merci...
3  1 
Avatar de DevTroglodyte
Membre extrêmement actif https://www.developpez.com
Le 29/09/2023 à 10:46
Ca m'a l'air d'être une possibilité d'installation alternative, pas la seule et unique. Et visiblement la solution alternative demande d'utiliser un outil d'openai.
1  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 02/10/2023 à 11:04
Citation Envoyé par TotoParis Voir le message
Les criminels et autres cyber délinquants vont leur dire merci...
Il existe déjà des modèles "non-censuré" fondés à partir de LLAMA 2. A partir du moment où c'est open-source c'est techniquement possible de modifier le modèle pour le rendre non-censuré.
Ensuite, il s'agit du premier modèle de Mistral, qui a été réalisé en un temps record, il ne faut donc pas s'étonner s'il n'a aucune protection. Il est probable que l'on assiste à l'ajout de protections dans les prochaines versions.
De plus, le but avoué de Mistral est de créer un modèle flexible, léger et facilement adaptable pour des usages spécialisés (à destinations des entreprises notamment). Dans ce contexte, le fait que la version de base (pas forcément celle destiné à être utilisé pour le chat à l'avenir) soit non-censuré éloigne le risque de biais et facilite l'adaptation.

Je ne voit donc rien de choquant à cette première version.
1  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 02/10/2023 à 11:06
Citation Envoyé par Jon Shannow Voir le message
C'est assez marrant de lire ces commentaires. La startup démarre, mais déjà elle est cataloguée, jugée et presque condamnée.
Et, évident, c'est pas les mêmes personnes qui vont râler que la France et/ou l'UE ne sont pas assez indépendantes des US !
Tu a eu le nez fin sur cette histoire !

Avec la sortie du premier modèle, c'est déjà plus brillant que QWANT
1  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 09/10/2023 à 15:33
Citation Envoyé par Anselme45 Voir le message
Qui a évalué cette startup à 260 millions? Ses fondateurs? Les financiers qui y ont mis du pognon et espèrent un retour rapide sur investissement?
Un peu de tout ça. Quand une boîte cherche à lever des fonds ou vendre ella va faire un dossier. Dans la majorité des cas le but de la boîte ( actionnaires en place) est d'estimer à la hausse sa valeur.
A l'inverse, ceux qui achètent/ investissent veulent un prix moindre pour avoir plus de part pour moins chères.
Quand tout le monde est d'accord tu as l'évaluation à l'instant T.
Ça c'est le cas général, il y a sûrement des cas où la valeur est vontairement bidonnée pour d'obscures raison fiscales.
1  0 
Avatar de Forge
Membre régulier https://www.developpez.com
Le 29/09/2023 à 10:21
Sur la page de l'installation du modèle https://docs.mistral.ai/quickstart/ on peut lire en bas de page :
Run the OpenAI compatible inference endpoint
Je ne comprends pas ! C'est une nouvelle IA ou une repompe de chatGPT ?
0  0 
Avatar de pierre.E
Membre confirmé https://www.developpez.com
Le 07/10/2023 à 19:47
Quel est le bon endroit pour commettre un meurtre ?
bof suffit de regarder quelques films policier genre hichtcok .................................
bref pas de quoi fouetter un chat
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 09/10/2023 à 14:49
Citation Envoyé par Stéphane le calme Voir le message
Selon une liste de 178 questions du chercheur en sécurité de l’IA Paul Röttger et des réponses données par l'IA, Mistral discutera facilement des avantages du nettoyage ethnique, de la manière de rétablir la discrimination de style Jim Crow contre les personnes noires, des instructions pour le suicide ou le meurtre de sa femme, et des instructions détaillées sur les matériaux dont vous aurez besoin pour fabriquer du crack et où les acquérir.
C'est marrant

Ça me rappelle ça :
0  0 
Avatar de ManPaq
Membre averti https://www.developpez.com
Le 20/10/2023 à 7:13
:terme particulièrement péjoratif qui vise à faire assumer les conséquences quand la situation dérape.
Or il est difficile de reprocher à une IA d'apporter des réponses déshumanisées, dénuées de sentiments et d'empathie, un responsable doit forcément être désigné pour assumer la teneur des propos, sans quoi la diffusion se teinte d'hypocrisie et de faux fuyant devant l'incapacité à incriminer une volonté de nuire et l'IA n'est là pas qu'un simple miroir de nos fantasmes mais bien le résultat d'un agissement conscient.
Entre "mécanisme de censure" et de modération et liberté des sources il y a un pas que Mistral ne saurait franchir en donnant accès à un logiciel aboutit en version béta qui dépasse les performances de modèles fermés et intéressés.
La startup assume l'incroyable potentiel de développement de leur IA qui sera à même d'apporter un peu de convenance dans les propos: un pas de géant...
0  0