IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI permet désormais aux développeurs d'apporter leurs propres données pour personnaliser GPT-3.5 Turbo
Afin de créer et d'exécuter des modèles plus performants pour leurs cas d'utilisation

Le , par Anthony

0PARTAGES

5  0 
Les clients d'OpenAI peuvent désormais apporter des données personnalisées à la version allégée de GPT-3.5, GPT-3.5 Turbo, facilitant ainsi l'amélioration de la fiabilité du modèle d'IA génératrice de texte tout en intégrant des comportements spécifiques.

OpenAI affirme que les versions affinées de GPT-3.5 peuvent égaler ou même dépasser les capacités de base de GPT-4, le modèle phare de l'entreprise, sur "certaines tâches spécifiques".

"Depuis la sortie de GPT-3.5 Turbo, les développeurs et les entreprises ont demandé à pouvoir personnaliser le modèle afin de créer des expériences uniques et différenciées pour leurs utilisateurs", écrit l'entreprise dans un billet de blog. "Cette mise à jour donne aux développeurs la possibilité de personnaliser des modèles plus performants pour leurs cas d'utilisation et d'exécuter ces modèles personnalisés à l'échelle."

Grâce au réglage fin, les entreprises qui utilisent GPT-3.5 Turbo via l'API d'OpenAI peuvent faire en sorte que le modèle suive mieux les instructions, par exemple qu'il réponde toujours dans une langue donnée. Elles peuvent également améliorer la capacité du modèle à formater les réponses de manière cohérente (par exemple, pour compléter des extraits de code), ainsi qu'affiner la "sensation" des résultats du modèle, comme son ton, afin qu'il corresponde mieux à une marque ou à une voix.

En outre, le réglage fin permet aux clients d'OpenAI de raccourcir leurs invites textuelles afin d'accélérer les appels d'API et de réduire les coûts. "Les premiers testeurs ont réduit la taille des invites jusqu'à 90 % en affinant les instructions dans le modèle lui-même", affirme OpenAI dans le billet de blog.

Le réglage fin nécessite actuellement de préparer les données, de télécharger les fichiers nécessaires et de créer une tâche de réglage fin par l'intermédiaire de l'API d'OpenAI. Toutes les données de réglage fin doivent passer par une API de "modération" et un système de modération alimenté par GPT-4 pour voir si elles sont en conflit avec les normes de sécurité d'OpenAI, explique l'entreprise. Mais OpenAI prévoit de lancer une interface utilisateur de réglage fin à l'avenir, avec un tableau de bord permettant de vérifier l'état des charges de travail de réglage fin en cours.

Le réglage fin pour GPT-3.5 Turbo est maintenant disponible, et le réglage fin pour GPT-4 sera disponible cet automne. Cette mise à jour donne aux développeurs la possibilité de personnaliser des modèles plus performants pour leurs cas d'utilisation et d'exécuter ces modèles personnalisés à grande échelle. Les premiers tests ont montré qu'une version affinée de GPT-3.5 Turbo peut égaler, voire surpasser, les capacités de base du niveau GPT-4 pour certaines tâches précises. Comme pour toutes nos API, les données envoyées dans et hors de l'API de réglage fin sont la propriété du client et ne sont pas utilisées par OpenAI, ou toute autre organisation, pour entraîner d'autres modèles.

Cas d'utilisation du réglage fin

Depuis la sortie de GPT-3.5 Turbo, les développeurs et les entreprises ont demandé à pouvoir personnaliser le modèle afin de créer des expériences uniques et différenciées pour leurs utilisateurs. Avec ce lancement, les développeurs peuvent désormais procéder à des ajustements supervisés afin de rendre ce modèle plus performant pour leurs cas d'utilisation.

Dans notre version bêta privée, les clients du réglage fin ont été en mesure d'améliorer de manière significative les performances du modèle dans des cas d'utilisation courants, comme par exemple

  • Amélioration de la dirigeabilité : Le réglage fin permet aux entreprises de faire en sorte que le modèle suive mieux les instructions, par exemple en rendant les sorties laconiques ou en répondant toujours dans une langue donnée. Par exemple, les développeurs peuvent utiliser le réglage fin pour s'assurer que le modèle répond toujours en allemand lorsqu'il est invité à utiliser cette langue.
  • Formatage fiable des résultats : Le réglage fin améliore la capacité du modèle à formater les réponses de manière cohérente, un aspect crucial pour les applications exigeant un format de réponse spécifique, comme la complétion de code ou la composition d'appels d'API. Un développeur peut utiliser le réglage fin pour convertir de manière plus fiable les invites de l'utilisateur en extraits JSON de haute qualité qui peuvent être utilisés avec leurs propres systèmes.
  • Tonalité personnalisée : Le réglage fin est un excellent moyen d'affiner l'aspect qualitatif des résultats du modèle, comme son ton, afin qu'il corresponde mieux à la voix de la marque de l'entreprise. Une entreprise dont la voix de marque est reconnaissable peut utiliser le réglage fin pour que le modèle soit plus cohérent avec son ton.

Outre l'amélioration des performances, le réglage fin permet également aux entreprises de raccourcir leurs invites tout en garantissant des performances similaires. Le réglage fin avec GPT-3.5-Turbo peut également gérer 4k tokens, soit le double de nos précédents modèles affinés. Les premiers testeurs ont réduit la taille des invites jusqu'à 90 % en affinant les instructions dans le modèle lui-même, ce qui a permis d'accélérer chaque appel à l'API et de réduire les coûts.

Le réglage fin est particulièrement efficace lorsqu'il est associé à d'autres techniques telles que l'ingénierie des invites, la recherche d'informations et l'appel de fonctions. Consultez notre guide sur le réglage fin pour en savoir plus. La prise en charge du réglage fin avec l'appel de fonction et gpt-3.5-turbo-16k sera disponible dans le courant de l'automne.

Étapes du réglage fin

Étape 1
Préparez vos données


Code : Sélectionner tout
1
2
3
{
  "messages": [
    { "role": "system", "content": "You are an assistant that occasionally misspells words" },
    { "role": "user", "content": "Tell me a story." },
    { "role": "assistant", "content": "One day a student went to schoool." }
  ]
}

Étape 2
Télécharger les fichiers


Code : Sélectionner tout
1
2
3
4
curl -https://api.openai.com/v1/files \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -F "purpose=fine-tune" \
  -F "file=@path_to_your_file"

Étape 3
Créer un travail de mise au point


Code : Sélectionner tout
1
2
3
4
5
6
7
curl https://api.openai.com/v1/fine_tuning/jobs \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
  "training_file": "TRAINING_FILE_ID",
  "model": "gpt-3.5-turbo-0613",
}'

Une fois qu'un modèle a terminé le processus de mise au point, il peut être utilisé immédiatement en production et dispose des mêmes limites de taux partagés que le modèle sous-jacent.

Étape 4
Utiliser un modèle affiné


Code : Sélectionner tout
1
2
3
4
5
6
7
curl https://api.openai.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
  "model": "ft:gpt-3.5-turbo:org_id",
  "messages": [
    {
      "role": "system",
      "content": "You are an assistant that occasionally misspells words"
    },
    {
      "role": "user",
      "content": "Hello! What is fine-tuning?"
    }
  ]
}'
Nous lancerons prochainement une interface utilisateur pour le réglage fin, qui permettra aux développeurs d'accéder plus facilement aux informations sur les travaux de réglage fin en cours, aux instantanés de modèles terminés, et plus encore.

Sécurité

Il est très important pour nous que le déploiement du réglage fin soit sûr. Pour préserver les caractéristiques de sécurité du modèle par défaut tout au long du processus de réglage fin, les données d'entraînement au réglage fin passent par notre API de modération et un système de modération alimenté par GPT-4 pour détecter les données d'entraînement non sûres qui entrent en conflit avec nos normes de sécurité.

Tarification

Les coûts de la mise au point sont répartis en deux catégories : le coût de la formation initiale et le coût de l'utilisation :

  • Formation : 0,008 $ / 1K tokens
  • Coût d'utilisation : 0,012 $ / 1 000 tokens
  • Utilisation en sortie : 0,016 $ / 1 000 jetons

Par exemple, un travail de réglage fin gpt-3.5-turbo avec un fichier d'entraînement de 100 000 tokens, entraîné pendant 3 epochs, aurait un coût attendu de 2,40 $.

Mise à jour des modèles GPT-3

En juillet 2023, nous avons annoncé que les modèles de base GPT-3 originaux (ada, babbage, curie et davinci) seraient désactivés le 4 janvier 2024. Aujourd'hui, nous mettons à disposition babbage-002 et davinci-002 en remplacement de ces modèles, soit en tant que modèles de base, soit en tant que modèles affinés. Les clients peuvent accéder à ces modèles en interrogeant l'API Completions.

Ces modèles peuvent être affinés avec notre nouveau point d'accès à l'API /v1/fine_tuning/jobs. Ce nouveau point de terminaison offre la pagination et plus d'extensibilité pour soutenir l'évolution future de l'API de réglage fin. La transition de /v1/fine-tunes vers le nouveau point de terminaison est simple et plus de détails peuvent être trouvés dans notre nouveau guide de réglage fin. Ceci rend obsolète l'ancien point de terminaison /v1/fine-tunes, qui sera désactivé le 4 janvier 2024.

Les prix pour les modèles GPT-3 de base et fine-tuned sont les suivants :

Source : OpenAI

Et vous?

Qu'en pensez-vous ?

Avez-vous déjà eu l'occasion de tester cette nouvelle fonctionnalité ? Trouvez-vous qu'elle est intéressante ?

Selon vous, le recours aux modèles personnalisés peut-il conduire à éclipser les capacités polyvalentes et adaptables des systèmes d'IA ?

Voir aussi

GPT-4 est capable d'améliorer ses performances de 30 % en utilisant un processus d'auto-réflexion, consistant à demander au modèle d'apprendre de ses erreurs pour pouvoir ensuite s'auto-corriger

GPT-3, le système de génération de texte d'OpenAI, serait aussi performant qu'un humain de neuf ans dans les tests standard de la théorie de l'esprit, selon un psychologue

OpenAI permet désormais aux développeurs de personnaliser son système de génération de texte GPT-3, pour créer des modèles adaptés au contenu spécifique de leurs applications et services

Une erreur dans cette actualité ? Signalez-nous-la !