Phillip Schmid, responsable technique de Hugging Face et directeur des LLM, a publié la nouvelle sur le réseau social X (anciennement connu sous le nom de Twitter), expliquant que les utilisateurs pouvaient créer un nouvel assistant de conversation personnel Hugging Face « en 2 clics ! ». Schmid a également comparé ouvertement les nouvelles capacités aux GPT personnalisés d'OpenAI.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Introducing Hugging Chat Assistant! 🤵 Build your own personal Assistant in Hugging Face Chat in 2 clicks! Similar to <a href="https://twitter.com/OpenAI?ref_src=twsrc%5Etfw">@OpenAI</a> GPTs, you can now create custom versions of <a href="https://twitter.com/huggingface?ref_src=twsrc%5Etfw">@huggingface</a> Chat! 🤯<br><br>An Assistant is defined by<br><br>🏷️ Name, Avatar, and Description<br>🧠 Any available open… <a href="https://t.co/9XaReKgg9m">pic.twitter.com/9XaReKgg9m</a></p>— Philipp Schmid (@_philschmid) <a href="https://twitter.com/_philschmid/status/1753429249363452274?ref_src=twsrc%5Etfw">February 2, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Les différences entre GPT Builder et Hugging Chat Assistant
Début janvier, OpenAI a lancé le GPT Store, une vitrine pour des applications de chatbot personnalisées alimentées par ses modèles d'IA générateurs de texte et d'images (par exemple, GPT-4 et DALL-E 3). L'entreprise avait initialement prévu d'ouvrir le GPT Store en novembre, avant de repousser l'ouverture à décembre, puis à janvier.
Le GPT Store s'affiche dans un nouvel onglet du client ChatGPT sur le web, et propose une gamme de GPT développés par les partenaires d'OpenAI et par la communauté de développeurs au sens large. Les utilisateurs de GPT peuvent parcourir les GPT populaires et en vogue sur le tableau de classement de la communauté, qui est organisé en catégories telles que le style de vie, l'écriture, la recherche, la programmation et l'éducation.
Pour accéder au GPT Store, les utilisateurs doivent être abonnés à l'un des plans premium ChatGPT d'OpenAI - ChatGPT Plus, ChatGPT Enterprise ou le tout nouveau ChatGPT Team.
De son côté, Hugging Chat Assistant est gratuit.
De plus, l'autre grande différence entre Hugging Chat Assistant et les outils GPT Builder et GPT Store est que ces derniers dépendent entièrement des modèles de grand langage (LLM) GPT-4 et GPT-4 Vision/Turbo exclusifs d'OpenAI.
Les utilisateurs de l'assistant Hugging Chat, en revanche, peuvent choisir parmi plusieurs LLM open source ceux qu'ils souhaitent utiliser pour alimenter l'intelligence de leur assistant IA en arrière-plan, y compris tout ce qui va de Mixtral de Mistral à Llama 2 de Meta.
Cela correspond à l'approche globale de Hugging Face en matière d'IA, qui propose un large éventail de modèles et de cadres différents aux utilisateurs, ainsi qu'à l'approche adoptée pour Hugging Chat lui-même, où les utilisateurs peuvent choisir entre plusieurs modèles open source différents pour l'alimenter.
Un rival de GPT Store ?
Comme OpenAI avec son GPT Store lancé le mois dernier, Hugging Face a également créé un référentiel central d'assistants Hugging Chat personnalisés par des tiers que les utilisateurs peuvent choisir et utiliser à leur guise.
La page d'agrégation des Hugging Chat Assistants ressemble beaucoup à la page du GPT Store, même dans son style visuel, avec des assistants personnalisés affichés comme des GPT personnalisés dans leurs propres boîtes rectangulaires de style carte de baseball avec des logos circulaires à l'intérieur.
Certains utilisateurs de la communauté de l'IA open source saluent déjà les Hugging Chat Assistants comme étant « meilleurs que les GPT », notamment Mathieu Trachino, fondateur du fournisseur de logiciels d'IA d'entreprise GenDojo.ai, qui s'est connecté à X pour énumérer les avantages, qui tournent principalement autour de la personnalisation par l'utilisateur des modèles sous-jacents et du fait que l'ensemble de la situation est gratuite, par rapport aux niveaux d'abonnement payants de l'OpenAI.
Il a également noté certains domaines dans lesquels les GPT personnalisés sont plus performants que les Hugging Chat Assistants, notamment le fait qu'ils ne prennent pas actuellement en charge la recherche sur le web, la génération augmentée de recherche (RAG), et qu'ils ne peuvent pas non plus générer leurs propres logos (ce que les GPT peuvent faire grâce à la puissance du modèle d'IA de génération d'images d'OpenAI, DALL-E 3).
Pourquoi Hugging Face Assistants sont meilleurs que les GPT
Aujourd'hui, Hugging Face a lancé des assistants, similaires aux GPT d'OpenAI.
En voici les principaux avantages :
1. Choisissez votre modèle :
Essayez différents modèles open-source et choisissez celui qui convient le mieux à votre cas d'utilisation. Vous pouvez choisir des modèles comme Mixtral, Llama2, OpenChat, Hermes, et plus encore.
2. Absolument gratuit :
L'inférence est fournie par Hugging Face et vous n'avez pas à payer pour les jetons que vous utilisez. Coût total : 0
3. Partageable publiquement :
Aucun abonnement n'est nécessaire pour accéder à l'assistant. Cela signifie que vous pouvez le partager publiquement avec n'importe qui, contrairement aux FPT.
Cependant, le produit est encore en version bêta.
Il y a quelques domaines d'amélioration pour correspondre aux TPG d'OpenAI :
Ces fonctionnalités ne sont pas encore disponibles mais sont dans la feuille de route.
Partagez votre travail !
Aujourd'hui, Hugging Face a lancé des assistants, similaires aux GPT d'OpenAI.
En voici les principaux avantages :
1. Choisissez votre modèle :
Essayez différents modèles open-source et choisissez celui qui convient le mieux à votre cas d'utilisation. Vous pouvez choisir des modèles comme Mixtral, Llama2, OpenChat, Hermes, et plus encore.
2. Absolument gratuit :
L'inférence est fournie par Hugging Face et vous n'avez pas à payer pour les jetons que vous utilisez. Coût total : 0
3. Partageable publiquement :
Aucun abonnement n'est nécessaire pour accéder à l'assistant. Cela signifie que vous pouvez le partager publiquement avec n'importe qui, contrairement aux FPT.
Cependant, le produit est encore en version bêta.
Il y a quelques domaines d'amélioration pour correspondre aux TPG d'OpenAI :
- Ajout de RAG,
- Activation de la recherche sur le web
- Générer des vignettes d'assistant avec l'IA
Ces fonctionnalités ne sont pas encore disponibles mais sont dans la feuille de route.
Partagez votre travail !
Néanmoins, l'arrivée des Hugging Chat Assistants montre à quel point la communauté open source continue de rattraper ses rivaux fermés, tels que le nom désormais ironique "Open"AI , surtout un jour après la fuite confirmée d'un nouveau modèle open source de Mistral, Miqu, qui égale presque les performances du modèle fermé GPT-4, qui est toujours la référence en matière de LLM. Mais... pour combien de temps ?
Des performances proches de GPT-4 pour un modèle open source de la startup française Mistral
Voici la chronologie rapide : le 28 janvier ou aux alentours de cette date, un utilisateur répondant au nom de "Miqu Dev" a publié un ensemble de fichiers sur HuggingFace, qui, ensemble, constituaient un modèle de langage de grande taille (LLM) apparemment nouveau et à code source libre, appelé "miqu-1-70b".
Sur HuggingFace il était alors noté que le « format d'invite » du nouveau LLM, c'est-à-dire la manière dont les utilisateurs interagissent avec lui, est le même que celui de Mistral, la société parisienne d'IA open source à l'origine de Mixtral 8x7b, considéré par beaucoup comme le LLM open source le plus performant actuellement disponible.
Le même jour, un utilisateur anonyme de 4chan (peut-être "Miqu Dev" a publié un lien vers les fichiers miqu-1-70b sur 4chan, le célèbre havre de mèmes et de toxicité en ligne, où les utilisateurs ont commencé à le remarquer.
Certains se sont rendus sur X, le réseau social d'Elon Musk anciennement connu sous le nom de Twitter, pour partager la découverte du modèle et ce qui semblait être sa performance exceptionnellement élevée dans les tâches LLM courantes (mesurées par des tests connus), approchant le précédent leader, le GPT-4 d'OpenAI sur l'EQ-Bench :
Quelle que soit la nature de Miqu, elle possède une sorte de sauce spéciale. Il obtient un 83.5 sur EQ-Bench (évalué localement), surpassant *tous les autres LLM dans le monde à l'exception de GPT-4*. EQ-Bench a une corrélation de 0,97 avec MMLU, et une corrélation de 0,94 avec Arena Elo. Il *bat* Mistral Medium - à Q4_K_M. J'encourage vivement @lmsysorg à ajouter miqu au leaderboard pour que nous puissions le tester correctement.
J'ai vu ce résultat intriguant d'EQ-Bench dans un tweet anonyme que je n'arrive pas à retrouver - je l'ai reproduit moi-même, mais si quelqu'un connaît le lien vers ce tweet, merci de le poster dans les commentaires pour que je puisse créditer l'idée !
Ce serait également génial si quelqu'un pouvait vérifier que miqu n'est pas contaminé par le jeu de données avec EQ-Bench.
J'ai vu ce résultat intriguant d'EQ-Bench dans un tweet anonyme que je n'arrive pas à retrouver - je l'ai reproduit moi-même, mais si quelqu'un connaît le lien vers ce tweet, merci de le poster dans les commentaires pour que je puisse créditer l'idée !
Ce serait également génial si quelqu'un pouvait vérifier que miqu n'est pas contaminé par le jeu de données avec EQ-Bench.
C'est peut-être un peu tard, mais je suis maintenant 100% convaincu que Miqu est le même modèle qui est accessible en tant que Mistral-Medium sur Perplexity Labs. Il était plausible qu'il connaisse les puzzles standards, mais il est impossible qu'un farceur l'ait réglé pour qu'il formule les réponses de manière identique en russe également
Les chercheurs en apprentissage machine (ML) en ont également pris note sur LinkedIn.
« Est-ce que "miqu" signifie MIstral QUantized ? Nous n'en sommes pas sûrs, mais ce logiciel est rapidement devenu l'un des meilleurs LLM open-source, si ce n'est le meilleur », a écrit Maxime Labonne, chercheur en ML chez JP Morgan & Chase, l'une des plus grandes sociétés bancaires et financières au monde.
La quantification en ML fait référence à une technique utilisée pour rendre possible l'exécution de certains modèles d'IA sur des ordinateurs et des puces moins puissants en remplaçant de longues séquences numériques spécifiques dans l'architecture d'un modèle par des séquences plus courtes. Les utilisateurs ont supposé que "Miqu" pourrait être un nouveau modèle Mistral secrètement "divulgué" par l'entreprise elle-même - d'autant plus que Mistral est connu pour lancer de nouveaux modèles et des mises à jour sans fanfare par des moyens ésotériques et techniques.
Puis, Arthur Mensch, cofondateur et PDG de Mistral, s'est adressé à X pour clarifier la situation : « Un employé trop enthousiaste de l'un de nos premiers clients a divulgué une version quantifiée (et en filigrane) d'un ancien modèle que nous avons formé et distribué très ouvertement... Pour commencer à travailler rapidement avec quelques clients sélectionnés, nous avons réentraîné ce modèle à partir de Llama 2 dès que nous avons eu accès à l'ensemble de notre cluster - le pré-entraînement s'est terminé le jour de la sortie de Mistral 7B. Nous avons bien progressé depuis - restez à l'écoute ! »
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">An over-enthusiastic employee of one of our early access customers leaked a quantised (and watermarked) version of an old model we trained and distributed quite openly.<br><br>To quickly start working with a few selected customers, we retrained this model from Llama 2 the minute we got…</p>— Arthur Mensch (@arthurmensch) <a href="https://twitter.com/arthurmensch/status/1752737462663684344?ref_src=twsrc%5Etfw">January 31, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Mensch semble également s'être rendu sur la publication illicite sur HuggingFace, non pas pour demander que le LLMl soit retiré, mais pour laisser un commentaire indiquant que l'auteur de l'affiche « pourrait envisager de l'attribuer ».
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">LMFAO <a href="https://t.co/Ak5Ubi6wWQ">pic.twitter.com/Ak5Ubi6wWQ</a></p>— Alice (e/nya) (@Alice_comfy) <a href="https://twitter.com/Alice_comfy/status/1752740896695844908?ref_src=twsrc%5Etfw">January 31, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Hugging Face Assistants
Sources : LinkedIn, Hugging Face
Et vous ?
Que pensez-vous de l’initiative de Hugging Face de proposer un outil open source pour créer des assistants IA personnalisables ?
Quels sont les avantages et les inconvénients des GPT personnalisés d’OpenAI par rapport aux modèles open source de Hugging Face ?
Quelles sont les applications que vous aimeriez réaliser avec eux ?
Quels sont les critères que vous utilisez pour évaluer la qualité et la performance d’un assistant IA ?
Quels sont les défis et les risques liés à l’utilisation des assistants IA dans la société ?