IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le nouveau GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT et s'accompagne d'améliorations des performances
Mais Epoch estime qu'elles restent «en deçà de Claude 3 Opus»

Le , par Stéphane le calme

5PARTAGES

7  0 
OpenAI a annoncé une mise à jour de son modèle de langage GPT-4 Turbo, destiné aux utilisateurs payants de sa plateforme ChatGPT. Cette nouvelle itération de GPT-4 Turbo présente des améliorations dans plusieurs domaines, notamment l'écriture, les capacités mathématiques, le raisonnement logique et la génération de codes. L'un des changements les plus remarquables pour les utilisateurs sera la façon dont ChatGPT interagit avec le texte. GPT-4 Turbo est conçu pour fournir des réponses plus concises et conversationnelles. Ce résultat est obtenu grâce à une combinaison de facteurs, notamment l'amélioration des données de formation et l'accent mis sur la production d'un langage direct et clair.

GPT-4 Turbo est un modèle multimodal robuste capable de traiter à la fois des textes et des images, et de fournir des résultats précis grâce à ses connaissances générales étendues et à ses capacités de raisonnement avancées.

OpenAI a présenté GPT-4 Turbo en novembre dernier lors du DevDay. Il s'agit du successeur de GPT-4 qui a été présenté en mars et a été rendu public en juillet. GPT-4 Turbo s'est accompagné de nouvelles fonctionnalités, des prix réduits et bien d'autres choses encore. GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde qui comprend le contexte du texte et des images.

GPT-4 Turbo dispose également d'une fenêtre contextuelle élargie. La fenêtre contextuelle, mesurée en jetons, fait référence au texte que le modèle prend en compte avant de générer tout texte supplémentaire. Les modèles dotés d'une petite fenêtre contextuelle ont tendance à "oublier" le contenu des conversations, même les plus récentes, ce qui les amène à s'écarter du sujet, souvent de manière problématique. GPT-4 Turbo offre une fenêtre contextuelle de 128 000 jetons - quatre fois la taille de GPT-4. Elle était alors la plus grande fenêtre contextuelle de tous les modèles d'IA disponibles sur le marché, dépassant même le modèle d'IA Claude 2 d'Anthropic qui supporte jusqu'à 100 000 jetons.

En outre, GPT-4 accepte des budgets plus modestes. Il est trois fois moins cher pour les jetons d'entrée et deux fois moins cher pour les jetons de sortie. Les prix sont de 0,01 $ pour 1 000 jetons d'entrée (~750 mots), où les jetons représentent des morceaux de texte brut (par exemple, le mot "fantastique" divisé en "fan", "tas" et "tic" et de 0,03 $ pour 1 000 jetons de sortie (les jetons d'entrée sont des jetons introduits dans le modèle d'IA, tandis que les jetons de sortie sont des jetons que le modèle génère sur la base des jetons d'entrée). L'entreprise promet de continuer à optimiser ses prix afin de rendre ses plateformes accessibles à plus de monde.

L'un des points forts du GPT-4 Turbo est l'optimisation de ses performances, qui se traduit par une réduction substantielle des coûts pour les utilisateurs. Les jetons d'entrée sont désormais trois fois moins chers, tandis que les jetons de sortie sont disponibles à moitié prix par rapport au modèle GPT-4 précédent, ce qui rend cette mise à niveau à la fois efficace et rentable pour les clients.

Dans sa preview, GPT-4 Turbo a corrigé problème surprenant; les cas de “paresse” durant lesquels il « refusait » de travailler. En effet, certains utilisateurs avaient remarqué que le modèle ne terminait pas certaines tâches, comme la génération de code, et se contentait de réponses minimales ou vides. OpenAI a assuré avoir amélioré la capacité du modèle à compléter les tâches demandées, sans pour autant expliquer la cause de cette “paresse” artificielle.


Le nouveau modèle GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT

Le nouveau modèle GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT, promettant des améliorations significatives en termes de performance et d’interaction utilisateur.

OpenAI a mis à jour vendredi son modèle d'intelligence artificielle (IA) GPT-4 Turbo avec de nouvelles capacités, en particulier dans les domaines des mathématiques, du raisonnement et de l'écriture. La version améliorée de GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT Plus, Team, Enterprise et API. Le nouveau modèle d'IA est également accompagné d'une bibliothèque de données mise à jour et affiche désormais une date limite de connaissance fixée à avril 2024. Cette mise à jour intervient quelques jours seulement après que la société d'IA a annoncé son nouveau modèle GPT-4 Turbo avec Vision dans l'API.

L'annonce a été faite par le compte officiel X (anciennement connu sous le nom de Twitter) d'OpenAI par le biais d'un message, dans lequel il est indiqué : « Notre nouveau GPT-4 Turbo est maintenant disponible pour les utilisateurs payants de ChatGPT. Nous avons amélioré les capacités d'écriture, de mathématiques, de raisonnement logique et de codage ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Our new GPT-4 Turbo is now available to paid ChatGPT users. We’ve improved capabilities in writing, math, logical reasoning, and coding. <br>Source: <a href="https://t.co/fjoXDCOnPr">https://t.co/fjoXDCOnPr</a> <a href="https://t.co/I4fg4aDq1T">pic.twitter.com/I4fg4aDq1T</a></p>— OpenAI (@OpenAI) <a href="https://twitter.com/OpenAI/status/1778574613813006610?ref_src=twsrc%5Etfw">April 12, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

L'un des domaines dans lesquels les utilisateurs pourront constater une amélioration directe est le langage conversationnel. Selon l'entreprise, lorsque l'on écrit avec ChatGPT, les réponses sont plus directes et moins verbeuses.


Réponse précédente vs. réponse actuelle à la même questions (présentation d'OpenAI)

C'est un reproche qui a été fait à ChatGPT lorsqu'il a été comparé à Gemini de Google. Selon le plusieurs sources, ce dernier était plus conversationnel et la génération d'un contenu tel qu'une lettre, un e-mail ou un message semblait plus naturelle. En revanche, les réponses de ChatGPT (pour les tests qui ont été effectué sur GPT-3.5, qui est disponible publiquement) semblaient trop formelles et fades. Il semble que ce problème ait été résolu grâce à la récente mise à jour.

OpenAI a également souligné que le nouveau modèle offrira de meilleures capacités de calcul, de raisonnement et de codage, mais n'a pas donné d'exemples de ces améliorations. Les résultats des tests de référence publiés par l'entreprise montrent une amélioration significative dans les tests MATH et GPQA (Graduate-Level Google-Proof Q&A). Les tests HumanEval et MMLU (Massive Multitask Language Understanding), qui correspondent aux capacités de codage et de traitement du langage naturel, n'ont pas montré d'améliorations majeures.

Les utilisateurs verront également une base de connaissances mise à jour dans le nouveau modèle GPT-4 Turbo. L'entreprise a augmenté la date limite des données jusqu'au 9 avril 2024, alors que l'ancien modèle Turbo n'était mis à jour que jusqu'en avril 2023. Actuellement, le nouveau modèle AI est en cours de déploiement pour tous les utilisateurs payants de ChatGPT.

Les premières réactions des utilisateurs qui ont testé GPT-4 Turbo suggèrent des résultats prometteurs

Dans le domaine du codage, par exemple, un utilisateur a fait état d'un « grand bond en avant en mathématiques/raisonnement » lors des tests de référence.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">A big jump in math/reasoning for our coding benchmark 🤯 <a href="https://t.co/6pXtAkPgMO">https://t.co/6pXtAkPgMO</a> <a href="https://t.co/ItK8fxnpYU">https://t.co/ItK8fxnpYU</a> <a href="https://t.co/xaM48EmdpV">pic.twitter.com/xaM48EmdpV</a></p>— Wen-Ding Li (@xu3kev) <a href="https://twitter.com/xu3kev/status/1777922822548894192?ref_src=twsrc%5Etfw">April 10, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]

Un autre utilisateur a commenté la capacité du modèle à générer un code plus rationalisé tout en incluant des détails, tels que...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !