IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI lance GPT-5.3-Codex-Spark, optimisé par la puce Wafer Scale Engine 3 de Cerebras, pour un codage en temps réel ultra-rapide, 15 fois plus rapide que son prédécesseur

Le , par Jade Emy

85PARTAGES

6  0 
OpenAI lance GPT-5.3-Codex-Spark pour un codage en temps réel ultra-rapide. Alimenté par la puce Wafer Scale Engine 3 de Cerebras, Spark permettrait une inférence plus rapide et constitue la première étape importante du partenariat pluriannuel entre OpenAI et Cerebras. Le modèle GPT-5.3-Codex original sert à des tâches plus longues et plus lourdes qui nécessitent un raisonnement et une exécution plus approfondis. En revanche, GPT-5.3-Codex-Spark se concentre sur des opérations rapides. OpenAI le décrit comme une version plus petite conçue spécifiquement pour réduire la latence pendant les processus d'inférence. Codex-Spark est lancé en tant qu'aperçu de recherche pour les utilisateurs de ChatGPT Pro dans les dernières versions de l'application Codex, de l'interface CLI et de l'extension VS Code.

Les outils de codage IA ont connu un essor fulgurant au cours de l'année dernière, poussant OpenAI a fourni plus d'efforts pour gagner des parts de marché sur ses concurrents tels qu'Anthropic et Cursor. Récemment, OpenAI a lancé un nouveau modèle de codage, GPT-5.3-Codex. OpenAI est une entreprise américaine d'intelligence artificielle (IA) qui s'est donné pour mission de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l'humanité ». L'entreprise est connue pour ses grands modèles de langage tels que GPT-4o, la série de modèles de génération d'images DALL-E et le modèle de génération de vidéos Sora.

Lors de l'annonce de GPT-5.3-Codex, la société a déclaré que ce nouveau modèle avait amélioré ses « capacités de raisonnement et de connaissances professionnelles » et qu'il fonctionnerait 25 % plus rapidement que son prédécesseur. OpenAI précise que le nouveau modèle GPT-5.3-Codex est son « premier modèle qui a contribué à sa propre création ». OpenAI affirme notamment : « L'équipe Codex a utilisé les premières versions pour déboguer sa propre formation, gérer son propre déploiement et diagnostiquer les résultats des tests et des évaluations. Notre équipe a été impressionnée par la capacité de Codex à accélérer son propre développement. »

Plus récemment, OpenAI lance GPT-5.3-Codex-Spark pour un codage en temps réel ultra-rapide. Ce modèle est la première étape importante de la production issue du partenariat de plus de 10 milliards de dollars entre OpenAI et Cerebras, annoncé en janvier 2026. Cerebras Systems Inc. est une société américaine spécialisée dans l'intelligence artificielle (IA) qui construit des systèmes informatiques pour des applications complexes d'apprentissage profond en IA. Sa technologie, le Cerebras Wafer Scale Engine (WSE), est un processeur intégré unique à l'échelle d'une plaquette qui comprend des capacités de calcul, de mémoire et d'interconnexion.


GPT-5.3-Codex-Spark optimisé par Cerebras

En septembre 2025, Nvidia et OpenAI ont annoncé en grande pompe un protocole d’accord selon lequel Nvidia investirait jusqu’à 100 milliards de dollars dans une infrastructure d’OpenAI pour soutenir l’entraînement et l’exploitation de ses modèles d'IA. Cet investissement devait également s’accompagner de la fourniture de systèmes GPU de très grande capacité destinés à OpenAI. Mais le projet bat désormais de l’aile. Aucune transaction n’a été finalisée et le PDG de Nvidia, Jensen Huang, a clarifié que le montant de 100 milliards de dollars n'était pas un engagement juridiquement contraignant.

De son côté, OpenAI rechercherait discrètement des alternatives aux puces Nvidia depuis l'année dernière. La nouvelle annonce d'OpenAI semble confimer cela. Ainsi, OpenAI a annoncé GPT-5.3-Codex-Spark, une version allégée de son outil de codage agentique Codex. Alimenté par la puce Wafer Scale Engine 3 de Cerebras, Spark permettrait une inférence plus rapide et constitue la première étape importante du partenariat pluriannuel entre OpenAI et Cerebras.

Le modèle GPT-5.3-Codex original sert à des tâches plus longues et plus lourdes qui nécessitent un raisonnement et une exécution plus approfondis. En revanche, GPT-5.3-Codex-Spark se concentre sur des opérations rapides. OpenAI le décrit comme une version plus petite conçue spécifiquement pour réduire la latence pendant les processus d'inférence. Ce nouvel outil intègre le matériel de Cerebras directement dans l'infrastructure physique d'OpenAI, ce qui représente une collaboration plus approfondie entre les deux sociétés.

OpenAI et Cerebras ont révélé leur partenariat le mois dernier à travers un accord pluriannuel évalué à plus de 10 milliards de dollars. À cette occasion, OpenAI a déclaré : « L'intégration de Cerebras dans notre gamme de solutions informatiques vise à rendre notre IA beaucoup plus réactive. » La société positionne désormais Spark comme la première réalisation de cette alliance, soulignant son rôle dans l'accélération des réponses de l'IA.


Le Wafer Scale Engine 3 de Cerebras alimente les capacités d'inférence de Spark. Cette mégapuce de troisième génération à l'échelle d'une plaquette contient 4 000 milliards de transistors, permettant un...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !