IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Hugging Face lance un fabricant d'assistants IA open source pour rivaliser avec les GPT personnalisés d'OpenAI
L'outil est gratuit et permet de choisir parmi plusieurs LLM open source

Le , par Stéphane le calme

5PARTAGES

13  0 
Hugging Face lance un fabricant d'assistants IA open source pour rivaliser avec les GPT personnalisés d'OpenAI,
l'outil est gratuit et permet de choisir parmi plusieurs LLM open source

Hugging Face, la startup basée à New York qui offre un référentiel populaire et axé sur les développeurs pour le code et les framework d'IA open source, a annoncé le lancement de Hugging Chat Assistants, des assistants IA personnalisables par des tiers. Ce nouveau produit gratuit permet aux utilisateurs de Hugging Chat, l'alternative open source de la startup au ChatGPT d'OpenAI, de créer facilement leurs propres chatbots IA personnalisés avec des capacités spécifiques, similaires à la fois en termes de fonctionnalité et d'intention au GPT Builder personnalisé d'OpenAI - bien que cela nécessite un abonnement payant à ChatGPT Plus (20 $ par mois), Team (25 $ par utilisateur et par mois payé annuellement), et Enterprise (prix variable en fonction des besoins).

Phillip Schmid, responsable technique de Hugging Face et directeur des LLM, a publié la nouvelle sur le réseau social X (anciennement connu sous le nom de Twitter), expliquant que les utilisateurs pouvaient créer un nouvel assistant de conversation personnel Hugging Face « en 2 clics ! ». Schmid a également comparé ouvertement les nouvelles capacités aux GPT personnalisés d'OpenAI.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Introducing Hugging Chat Assistant! 🤵 Build your own personal Assistant in Hugging Face Chat in 2 clicks! Similar to <a href="https://twitter.com/OpenAI?ref_src=twsrc%5Etfw">@OpenAI</a> GPTs, you can now create custom versions of <a href="https://twitter.com/huggingface?ref_src=twsrc%5Etfw">@huggingface</a> Chat! 🤯<br><br>An Assistant is defined by<br><br>🏷️ Name, Avatar, and Description<br>🧠 Any available open… <a href="https://t.co/9XaReKgg9m">pic.twitter.com/9XaReKgg9m</a></p>— Philipp Schmid (@_philschmid) <a href="https://twitter.com/_philschmid/status/1753429249363452274?ref_src=twsrc%5Etfw">February 2, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Les différences entre GPT Builder et Hugging Chat Assistant

Début janvier, OpenAI a lancé le GPT Store, une vitrine pour des applications de chatbot personnalisées alimentées par ses modèles d'IA générateurs de texte et d'images (par exemple, GPT-4 et DALL-E 3). L'entreprise avait initialement prévu d'ouvrir le GPT Store en novembre, avant de repousser l'ouverture à décembre, puis à janvier.

Le GPT Store s'affiche dans un nouvel onglet du client ChatGPT sur le web, et propose une gamme de GPT développés par les partenaires d'OpenAI et par la communauté de développeurs au sens large. Les utilisateurs de GPT peuvent parcourir les GPT populaires et en vogue sur le tableau de classement de la communauté, qui est organisé en catégories telles que le style de vie, l'écriture, la recherche, la programmation et l'éducation.

Pour accéder au GPT Store, les utilisateurs doivent être abonnés à l'un des plans premium ChatGPT d'OpenAI - ChatGPT Plus, ChatGPT Enterprise ou le tout nouveau ChatGPT Team.


De son côté, Hugging Chat Assistant est gratuit.

De plus, l'autre grande différence entre Hugging Chat Assistant et les outils GPT Builder et GPT Store est que ces derniers dépendent entièrement des modèles de grand langage (LLM) GPT-4 et GPT-4 Vision/Turbo exclusifs d'OpenAI.

Les utilisateurs de l'assistant Hugging Chat, en revanche, peuvent choisir parmi plusieurs LLM open source ceux qu'ils souhaitent utiliser pour alimenter l'intelligence de leur assistant IA en arrière-plan, y compris tout ce qui va de Mixtral de Mistral à Llama 2 de Meta.

Cela correspond à l'approche globale de Hugging Face en matière d'IA, qui propose un large éventail de modèles et de cadres différents aux utilisateurs, ainsi qu'à l'approche adoptée pour Hugging Chat lui-même, où les utilisateurs peuvent choisir entre plusieurs modèles open source différents pour l'alimenter.

Un rival de GPT Store ?

Comme OpenAI avec son GPT Store lancé le mois dernier, Hugging Face a également créé un référentiel central d'assistants Hugging Chat personnalisés par des tiers que les utilisateurs peuvent choisir et utiliser à leur guise.

La page d'agrégation des Hugging Chat Assistants ressemble beaucoup à la page du GPT Store, même dans son style visuel, avec des assistants personnalisés affichés comme des GPT personnalisés dans leurs propres boîtes rectangulaires de style carte de baseball avec des logos circulaires à l'intérieur.


Certains utilisateurs de la communauté de l'IA open source saluent déjà les Hugging Chat Assistants comme étant « meilleurs que les GPT », notamment Mathieu Trachino, fondateur du fournisseur de logiciels d'IA d'entreprise GenDojo.ai, qui s'est connecté à X pour énumérer les avantages, qui tournent principalement autour de la personnalisation par l'utilisateur des modèles sous-jacents et du fait que l'ensemble de la situation est gratuite, par rapport aux niveaux d'abonnement payants de l'OpenAI.

Il a également noté certains domaines dans lesquels les GPT personnalisés sont plus performants que les Hugging Chat Assistants, notamment le fait qu'ils ne prennent pas actuellement en charge la recherche sur le web, la génération augmentée de recherche (RAG), et qu'ils ne peuvent pas non plus générer leurs propres logos (ce que les GPT peuvent faire grâce à la puissance du modèle d'IA de génération d'images d'OpenAI, DALL-E 3).

Pourquoi Hugging Face Assistants sont meilleurs que les GPT

Aujourd'hui, Hugging Face a lancé des assistants, similaires aux GPT d'OpenAI.

En voici les principaux avantages :

1. Choisissez votre modèle :

Essayez différents modèles open-source et choisissez celui qui convient le mieux à votre cas d'utilisation. Vous pouvez choisir des modèles comme Mixtral, Llama2, OpenChat, Hermes, et plus encore.

2. Absolument gratuit :

L'inférence est fournie par Hugging Face et vous n'avez pas à payer pour les jetons que vous utilisez. Coût total : 0

3. Partageable publiquement :

Aucun abonnement n'est nécessaire pour accéder à l'assistant. Cela signifie que vous pouvez le partager publiquement avec n'importe qui, contrairement aux FPT.

Cependant, le produit est encore en version bêta.

Il y a quelques domaines d'amélioration pour correspondre aux TPG d'OpenAI :
  • Ajout de RAG,
  • Activation de la recherche sur le web
  • Générer des vignettes d'assistant avec l'IA

Ces fonctionnalités ne sont pas encore disponibles mais sont dans la feuille de route.

Partagez votre travail !
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Why <a href="https://twitter.com/huggingface?ref_src=twsrc%5Etfw">@huggingface</a> Assistants are better than GPTs<br><br>Today, Hugging Face released Assistants, similar to OpenAI GPTs.<br><br>Here are the main advantages:<br><br>1. Choose your model:<br><br>Try different open-source models and choose the perfect fit for your use case. You can pick models like… <a href="https://t.co/dHmHRHfFyR">pic.twitter.com/dHmHRHfFyR</a></p>— Mathieu Trachino (@AI_NewsWaltz) <a href="https://twitter.com/AI_NewsWaltz/status/1753488198758527311?ref_src=twsrc%5Etfw">February 2, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Néanmoins, l'arrivée des Hugging Chat Assistants montre à quel point la communauté open source continue de rattraper ses rivaux fermés, tels que le nom désormais ironique "Open"AI , surtout un jour après la fuite confirmée d'un nouveau modèle open source de Mistral, Miqu, qui égale presque les performances du modèle fermé GPT-4, qui est toujours la référence en matière de LLM. Mais... pour combien de temps ?

Des performances proches de GPT-4 pour un modèle open source de la startup française Mistral

Voici la chronologie rapide : le 28 janvier ou aux alentours de cette date, un utilisateur répondant au nom de "Miqu Dev" a publié un ensemble de fichiers sur HuggingFace, qui, ensemble, constituaient un modèle de langage de grande taille (LLM) apparemment nouveau et à code source libre, appelé "miqu-1-70b".

Sur HuggingFace il était alors noté que le « format d'invite » du nouveau LLM, c'est-à-dire la manière dont les utilisateurs interagissent avec lui, est le même que celui de Mistral, la société parisienne d'IA open source à l'origine de Mixtral 8x7b, considéré par beaucoup comme le LLM open source le plus performant actuellement disponible.

Le même jour, un utilisateur anonyme de 4chan (peut-être "Miqu Dev" a publié un lien vers les fichiers miqu-1-70b sur 4chan, le célèbre havre de mèmes et de toxicité en ligne, où les utilisateurs ont commencé à le remarquer.

Certains se sont rendus sur X, le réseau social d'Elon Musk anciennement connu sous le nom de Twitter, pour partager la découverte du modèle et ce qui semblait être sa performance exceptionnellement élevée dans les tâches LLM courantes (mesurées par des tests connus), approchant le précédent leader, le GPT-4 d'OpenAI sur l'EQ-Bench :

Quelle que soit la nature de Miqu, elle possède une sorte de sauce spéciale. Il obtient un 83.5 sur EQ-Bench (évalué localement), surpassant *tous les autres LLM dans le monde à l'exception de GPT-4*. EQ-Bench a une corrélation de 0,97 avec MMLU, et une corrélation de 0,94 avec Arena Elo. Il *bat* Mistral Medium - à Q4_K_M. J'encourage vivement @lmsysorg à ajouter miqu au leaderboard pour que nous puissions le tester correctement.

J'ai vu ce résultat intriguant d'EQ-Bench dans un tweet anonyme que je n'arrive pas à retrouver - je l'ai reproduit moi-même, mais si quelqu'un connaît le lien vers ce tweet, merci de le poster dans les commentaires pour que je puisse créditer l'idée !

Ce serait également génial si quelqu'un pouvait vérifier que miqu n'est pas contaminé par le jeu de données avec EQ-Bench.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Whatever Miqu is, it has some sort of special sauce. It gets an 83.5 on EQ-Bench (evaluated locally), surpassing *every other LLM in the world except GPT-4*. EQ-Bench has a 0.97 correlation w/ MMLU, and a 0.94 correlation w/ Arena Elo. It *beats* Mistral Medium - at Q4_K_M. I… <a href="https://t.co/0gOOPjxjPD">pic.twitter.com/0gOOPjxjPD</a></p>— N8 Programs (@N8Programs) <a href="https://twitter.com/N8Programs/status/1752441060133892503?ref_src=twsrc%5Etfw">January 30, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

C'est
...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !