IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI propose aux développeurs d'importantes mises à jour pour ses modèles d'IA et réduit les coûts d'accès à ses API,
Afin de faire face à l'émergence des modèles d'IA concurrents Bard et Claude

Le , par Bill Fassinou

2PARTAGES

4  0 
OpenAI a déployé mardi d'importantes mises à jour pour ses grands modèles de langage (LLM) GPT-3.5 Turbo et GPT-4 et a réduit le coût d'accès aux API de ces modèles. Les mises à jour comprennent une capacité appelée "appel de fonction" qui permet aux développeurs de décrire des fonctions de programmation à GPT-3.5-turbo et GPT-4 et de demander aux modèles de créer du code pour exécuter ces fonctions. Elles incluent en outre une mémoire de conversation quatre fois plus grande pour GPT-3.5. Ces nouvelles mises à jour semblent être l'une des réponses d'OpenAI à la concurrence croissante dans le domaine de l'IA générative.

ChatGPT a fait une forte impression auprès du grand public, mais aussi des entreprises, dès les premiers de son lancement à la fin de l'année dernière. Le chatbot d'IA d'OpenAI est ensuite rapidement devenu l'application à la croissance la plus rapide de tous les temps, avec plus de 100 millions d'utilisateurs en un peu plus de deux mois. Mais bien que ChatGPT offre une gamme impressionnante de fonctionnalités, de nombreuses entreprises trouvent que la structure de prix peut être trop chère pour leurs besoins. Les alternatives offrent souvent des structures de prix plus flexibles et peuvent même fournir des plans gratuits pour les petites entreprises.

Afin de faire à la concurrence, OpenAI a annoncé mardi avoir apporté des améliorations à ses LLM, y compris GPT-4 et gpt-3.5-turbo, et réduit les prix d'accès aux API. Ces améliorations comprennent une nouvelle capacité d'appel de fonction, des réductions de coûts significatives et une option de fenêtre contextuelle de 16 000 jetons pour le modèle gpt-3.5-turbo. OpenAI travaille depuis un certain temps sur ce dernier point. En effet, dans les LLM, la "fenêtre contextuelle" est une sorte de mémoire à court terme qui stocke le contenu de l'invite (la requête saisie par l'utilisateur) ou, dans le cas d'un chatbot, l'ensemble du contenu de la conversation en cours.


Dans le milieu des modèles de langage, l'augmentation de la taille de la fenêtre contextuelle est devenue une véritable course technologique. Par exemple, Anthropic a récemment annoncé une option de fenêtre contextuelle de 75 000 mots pour son LLM Claude. En outre, OpenAI a développé une version de 32 000 mots-clés de GPT-4, mais elle n'est pas encore accessible au public. Dans le même ordre d'idées, le laboratoire d'IA de San Francisco vient d'introduire une nouvelle version de gpt-3.5-turbo avec 16 000 fenêtres contextuelles - appelée, sans surprise, "gpt-3.5-turbo-16k" - qui permet à une invite d'avoir une longueur maximale de 16 000 jetons.

Avec une longueur de contexte quatre fois supérieure à celle de la version standard (4 000), gpt-3.5-turbo-16k pourrait traiter environ 20 pages de texte en une seule requête. Selon les analystes, il s'agit d'une avancée considérable pour les développeurs qui ont besoin d'un modèle capable de traiter et de générer des réponses pour de plus gros morceaux de texte. OpenAI a énuméré au moins quatre autres nouveaux changements majeurs apportés à ses API GPT, notamment :

Ajout d'une capacité d'appel de fonction aux chatbots

Les développeurs peuvent utiliser l'appel de fonction pour concevoir des chatbots d'IA générative conversationnelle capables de récupérer des informations au-delà des bases de données immédiates, en s'adressant à des outils approuvés en dehors de l'organisation. Le modèle peut produire un objet JSON contenant des arguments pour appeler ces fonctions. Il est essentiel que l'IA sache reconnaître quand elle doit lancer un appel de fonction et traduire automatiquement les demandes en langage naturel en un code adapté à une interrogation de base de données. Le modèle d'IA reformule ensuite la réponse en une réponse de type ChatGPT.

« Les développeurs peuvent désormais décrire des fonctions et le modèle peut choisir intelligemment de produire un objet JSON contenant des arguments pour appeler ces fonctions. Il s'agit d'une nouvelle façon de connecter de manière plus fiable les capacités de GPT avec des outils et des API externes. Ces modèles ont été affinés pour détecter quand une fonction doit être appelée (en fonction de l'entrée de l'utilisateur) et pour répondre avec JSON qui adhère à la signature de la fonction. L'appel de fonction permet aux développeurs d'obtenir de manière plus fiable des données structurées en retour du modèle », explique OpenAI dans un billet de blogue.

Par exemple, il est possible de convertir des invites telles que "Envoyez un courriel à Anya pour savoir si elle veut prendre un café vendredi prochain" en un appel de fonction tel que "send_email(to : string, body : string)". Cette fonction permettra notamment d'obtenir des résultats cohérents au format JSON, que les utilisateurs de l'API avaient jusqu'à présent du mal à générer.

Amélioration de la fonction "steerability" des chatbots

La fonction "steerability" (dirigeabilité) est un concept intéressant dans le domaine de l'IA, qui fait référence à la capacité des modèles à modifier leur comportement sur demande. Cela peut être utile, par exemple en lui demandant d'endosser le rôle d'un auditeur sympathique, ou dangereux, comme lorsque des personnes convainquent le modèle qu'il est diabolique ou déprimé. GPT-4 intègre la dirigeabilité de manière plus native que GPT-3.5, et les utilisateurs pourront changer la "personnalité classique de ChatGPT avec une verbosité, un ton et un style fixes" pour quelque chose de plus adapté à leurs besoins.

OpenAI affirme qu'il s'agit là du moyen le plus simple d'amener le modèle d'IA à rompre avec son caractère. Dans son billet de blogue mardi, OpenAI a annoncé que son nouveau modèle "gpt-3.5-turbo-0613" inclura une "dirigeabilité plus fiable via le message système". Dans l'API, le message système est une directive spéciale qui indique au modèle comment se comporter, par exemple "Vous êtes Grimace. Vous ne parlez que de milkshakes".

Réduction des coûts d'accès aux API des modèles d'IA

Outre les améliorations fonctionnelles, OpenAI propose des réductions de coûts substantielles. En particulier, le prix des jetons d'entrée du modèle populaire gpt-3.5-turbo a été réduit de 25 %. Cela signifie que les développeurs peuvent désormais utiliser ce modèle pour environ 0,0015 $ pour 1 000 jetons d'entrée et 0,002 $ pour 1 000 jetons de sortie, ce qui équivaut à environ 700 pages par dollar. Le modèle gpt-3.5-turbo-16k est proposé à 0,003 dollar pour 1 000 jetons d'entrée et à 0,004 dollar pour 1 000 jetons de sortie. En outre, OpenAI propose une réduction massive de 75 % du coût de son modèle d'intégration "text-embedding-ada-002".

L'utilisation de ce modèle est plus ésotérique que celle de ses homologues conversationnels. Un modèle d'intégration est comme un traducteur pour les ordinateurs, transformant les mots et les concepts en un langage numérique que les machines peuvent comprendre, ce qui est important pour des tâches telles que la recherche de texte et la suggestion de contenu pertinent. Étant donné qu'OpenAI ne cesse de mettre à jour ses modèles, les anciens ne seront pas éternels. L'entreprise a annoncé qu'elle entamait le processus de dépréciation de certaines versions antérieures de ces modèles, notamment gpt-3.5-turbo-0301 et gpt-4-0314.

La société précise que les développeurs peuvent continuer à utiliser ces modèles jusqu'au 13 septembre, date à partir de laquelle les anciens modèles ne seront plus accessibles. Il convient de noter que l'API GPT-4 d'OpenAI est toujours bloquée derrière une liste d'attente et pourtant largement disponible.

Source : OpenAI

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des améliorations apportées par OpenAI à ces modèles ?
Quel est votre avis sur les réductions de prix annoncés par l'entreprise ?
Quels pourraient être les impacts de ces changements sur les développeurs et les entreprises ?

Voir aussi

OpenAI permettra aux développeurs d'intégrer ChatGPT dans leurs applications via une API, mais l'outil est-il prêt à être utilisé dans des environnements de production ?

ChatGPT est peut-être l'application grand public à la croissance la plus rapide de l'histoire d'Internet, atteignant 100 millions d'utilisateurs en un peu plus de 2 mois, selon un rapport d'UBS

OpenAI étend massivement les capacités de ChatGPT en lui ajoutant la prise en charge des plug-ins pour le laisser naviguer sur le Web pour la première fois

OpenAI lance ChatGPT Plus, un plan d'abonnement ChatGPT pour 20 $ par mois, qui est proposé à ceux qui veulent des réponses plus rapides ainsi qu'un accès prioritaire aux nouvelles fonctionnalités

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de earhater
Membre éprouvé https://www.developpez.com
Le 26/01/2024 à 19:57
Mouais une startup pas rentable qui baisse ses prix alors que la concurrence lui gratte des utilisateurs, je donne pas cher de la peau de OpenAI à long terme
0  0