GPT-4 Turbo est un modèle multimodal robuste capable de traiter à la fois des textes et des images, et de fournir des résultats précis grâce à ses connaissances générales étendues et à ses capacités de raisonnement avancées.
OpenAI a présenté GPT-4 Turbo en novembre dernier lors du DevDay. Il s'agit du successeur de GPT-4 qui a été présenté en mars et a été rendu public en juillet. GPT-4 Turbo s'est accompagné de nouvelles fonctionnalités, des prix réduits et bien d'autres choses encore. GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde qui comprend le contexte du texte et des images.
GPT-4 Turbo dispose également d'une fenêtre contextuelle élargie. La fenêtre contextuelle, mesurée en jetons, fait référence au texte que le modèle prend en compte avant de générer tout texte supplémentaire. Les modèles dotés d'une petite fenêtre contextuelle ont tendance à "oublier" le contenu des conversations, même les plus récentes, ce qui les amène à s'écarter du sujet, souvent de manière problématique. GPT-4 Turbo offre une fenêtre contextuelle de 128 000 jetons - quatre fois la taille de GPT-4. Elle était alors la plus grande fenêtre contextuelle de tous les modèles d'IA disponibles sur le marché, dépassant même le modèle d'IA Claude 2 d'Anthropic qui supporte jusqu'à 100 000 jetons.
En outre, GPT-4 accepte des budgets plus modestes. Il est trois fois moins cher pour les jetons d'entrée et deux fois moins cher pour les jetons de sortie. Les prix sont de 0,01 $ pour 1 000 jetons d'entrée (~750 mots), où les jetons représentent des morceaux de texte brut (par exemple, le mot "fantastique" divisé en "fan", "tas" et "tic" et de 0,03 $ pour 1 000 jetons de sortie (les jetons d'entrée sont des jetons introduits dans le modèle d'IA, tandis que les jetons de sortie sont des jetons que le modèle génère sur la base des jetons d'entrée). L'entreprise promet de continuer à optimiser ses prix afin de rendre ses plateformes accessibles à plus de monde.
L'un des points forts du GPT-4 Turbo est l'optimisation de ses performances, qui se traduit par une réduction substantielle des coûts pour les utilisateurs. Les jetons d'entrée sont désormais trois fois moins chers, tandis que les jetons de sortie sont disponibles à moitié prix par rapport au modèle GPT-4 précédent, ce qui rend cette mise à niveau à la fois efficace et rentable pour les clients.
Dans sa preview, GPT-4 Turbo a corrigé problème surprenant; les cas de “paresse” durant lesquels il « refusait » de travailler. En effet, certains utilisateurs avaient remarqué que le modèle ne terminait pas certaines tâches, comme la génération de code, et se contentait de réponses minimales ou vides. OpenAI a assuré avoir amélioré la capacité du modèle à compléter les tâches demandées, sans pour autant expliquer la cause de cette “paresse” artificielle.
Le nouveau modèle GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT
Le nouveau modèle GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT, promettant des améliorations significatives en termes de performance et d’interaction utilisateur.
OpenAI a mis à jour vendredi son modèle d'intelligence artificielle (IA) GPT-4 Turbo avec de nouvelles capacités, en particulier dans les domaines des mathématiques, du raisonnement et de l'écriture. La version améliorée de GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT Plus, Team, Enterprise et API. Le nouveau modèle d'IA est également accompagné d'une bibliothèque de données mise à jour et affiche désormais une date limite de connaissance fixée à avril 2024. Cette mise à jour intervient quelques jours seulement après que la société d'IA a annoncé son nouveau modèle GPT-4 Turbo avec Vision dans l'API.
L'annonce a été faite par le compte officiel X (anciennement connu sous le nom de Twitter) d'OpenAI par le biais d'un message, dans lequel il est indiqué : « Notre nouveau GPT-4 Turbo est maintenant disponible pour les utilisateurs payants de ChatGPT. Nous avons amélioré les capacités d'écriture, de mathématiques, de raisonnement logique et de codage ».
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Our new GPT-4 Turbo is now available to paid ChatGPT users. We’ve improved capabilities in writing, math, logical reasoning, and coding. <br>Source: <a href="https://t.co/fjoXDCOnPr">https://t.co/fjoXDCOnPr</a> <a href="https://t.co/I4fg4aDq1T">pic.twitter.com/I4fg4aDq1T</a></p>— OpenAI (@OpenAI) <a href="https://twitter.com/OpenAI/status/1778574613813006610?ref_src=twsrc%5Etfw">April 12, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
L'un des domaines dans lesquels les utilisateurs pourront constater une amélioration directe est le langage conversationnel. Selon l'entreprise, lorsque l'on écrit avec ChatGPT, les réponses sont plus directes et moins verbeuses.
Réponse précédente vs. réponse actuelle à la même questions (présentation d'OpenAI)
C'est un reproche qui a été fait à ChatGPT lorsqu'il a été comparé à Gemini de Google. Selon le plusieurs sources, ce dernier était plus conversationnel et la génération d'un contenu tel qu'une lettre, un e-mail ou un message semblait plus naturelle. En revanche, les réponses de ChatGPT (pour les tests qui ont été effectué sur GPT-3.5, qui est disponible publiquement) semblaient trop formelles et fades. Il semble que ce problème ait été résolu grâce à la récente mise à jour.
OpenAI a également souligné que le nouveau modèle offrira de meilleures capacités de calcul, de raisonnement et de codage, mais n'a pas donné d'exemples de ces améliorations. Les résultats des tests de référence publiés par l'entreprise montrent une amélioration significative dans les tests MATH et GPQA (Graduate-Level Google-Proof Q&A). Les tests HumanEval et MMLU (Massive Multitask Language Understanding), qui correspondent aux capacités de codage et de traitement du langage naturel, n'ont pas montré d'améliorations majeures.
Les utilisateurs verront également une base de connaissances mise à jour dans le nouveau modèle GPT-4 Turbo. L'entreprise a augmenté la date limite des données jusqu'au 9 avril 2024, alors que l'ancien modèle Turbo n'était mis à jour que jusqu'en avril 2023. Actuellement, le nouveau modèle AI est en cours de déploiement pour tous les utilisateurs payants de ChatGPT.
Les premières réactions des utilisateurs qui ont testé GPT-4 Turbo suggèrent des résultats prometteurs
Dans le domaine du codage, par exemple, un utilisateur a fait état d'un « grand bond en avant en mathématiques/raisonnement » lors des tests de référence.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">A big jump in math/reasoning for our coding benchmark 🤯 <a href="https://t.co/6pXtAkPgMO">https://t.co/6pXtAkPgMO</a> <a href="https://t.co/ItK8fxnpYU">https://t.co/ItK8fxnpYU</a> <a href="https://t.co/xaM48EmdpV">pic.twitter.com/xaM48EmdpV</a></p>— Wen-Ding Li (@xu3kev) <a href="https://twitter.com/xu3kev/status/1777922822548894192?ref_src=twsrc%5Etfw">April 10, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]
Un autre utilisateur a commenté la capacité du modèle à générer un code plus rationalisé tout en incluant des détails, tels que l'ajout automatique d'un drapeau pour télécharger des vidéos de haute qualité : « Comparaison côte à côte entre la dernière version de gpt-4-turbo et la précédente, 0125-preview. Non seulement la nouvelle version est moins verbeuse et va directement dans le code, mais elle décide aussi (à juste titre) d'ajouter un drapeau pour télécharger la vidéo de meilleure qualité ».
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Side-by-side comparison between the latest version of gpt-4-turbo and the previous one, 0125-preview.<br><br>Not only is the new version less verbose and it goes directly into code, but it also (rightfully so) decides to add a flag to download the highest quality video.<br><br>Smart! 👨*🏫 <a href="https://t.co/eQdQ6Xg1sP">pic.twitter.com/eQdQ6Xg1sP</a></p>— Pietro Schirano (@skirano) <a href="https://twitter.com/skirano/status/1778122305471705489?ref_src=twsrc%5Etfw">April 10, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Un autre utilisateur a noté l'amélioration de l'efficacité du modèle, atteignant le même niveau de performance avec 64 000 tokens (unités de texte utilisées par le modèle) alors que la version précédente nécessitait 26 000 tokens.
Pour sa part, le groupe de recherche Epoch, qui s'intéresse au développement de l'IA, a déclaré : « OpenAI affirme que la nouvelle version de GPT-4 Turbo est "considérablement améliorée" par rapport à la version précédente. Nous avons constaté qu'elle est nettement plus performante sur @idavidrein et al., bien qu'elle reste en deçà de Claude 3 Opus. »
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">OpenAI claims that the newest version of GPT-4 Turbo is “majorly improved” from the previous version. <br><br>We found that it performs noticeably better on <a href="https://twitter.com/idavidrein?ref_src=twsrc%5Etfw">@idavidrein</a> et al.’s GPQA benchmark, though still short of Claude 3 Opus. <a href="https://t.co/iInwki3UJ7">pic.twitter.com/iInwki3UJ7</a></p>— Epoch (@EpochAIResearch) <a href="https://twitter.com/EpochAIResearch/status/1778463039932584205?ref_src=twsrc%5Etfw">April 11, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Actuellement, ce nouveau GPT-4 Turbo n'est accessible qu'aux abonnés payants de la plateforme ChatGPT. Il s'agit notamment des utilisateurs des plans ChatGPT Plus, Team et Enterprise, ainsi que de ceux qui interagissent avec le modèle par le biais de l'interface de programmation d'applications (API) d'OpenAI, publiée il y a quelques jours.
GitHub OpenAI
Source : OpenAI
Et vous ?
Quelles applications innovantes de GPT-4 Turbo imaginez-vous pour votre secteur d’activité ?
Comment GPT-4 Turbo pourrait-il influencer l’éducation et l’apprentissage à distance ?
En termes de confidentialité et d’éthique, quelles précautions devraient être prises lors de l’utilisation de technologies d’IA comme GPT-4 Turbo ?
Quels sont les défis que vous anticipez avec l’intégration de GPT-4 Turbo dans les systèmes existants ?
Quel impact GPT-4 Turbo pourrait-il avoir sur la création de contenu et les industries créatives ?
Quelles sont vos attentes en matière de transparence et de responsabilité pour les futures versions de modèles d’IA comme GPT-4 Turbo ?