IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI : « nous avons aussi un nouvel outil d'IA redoutablement si puissant qu'on ne peut pas le commercialiser »,
L'entreprise ne veut pas se laisser distancer par Anthropic dans le cycle médiatique actuel

Le , par Mathis Lucas

5PARTAGES

3  0 
OpenAI annonce le lancement d'un nouvel outil d'IA de cybersécurité très performant, dont l'accès sera strictement réservé à certains partenaires privilégiés. L'annonce reprend les mêmes éléments de langage utilisés par Anthropic pour décrire son outil Claude Mythos. Cela suggère que l'annonce d'OpenAI est une réponse directe à Anthropic et vise à empêcher son rival d'occuper tout l'espace médiatique. OpenAI affiche des ambitions financières démesurées avec des prévisions de revenus publicitaires atteignant 102 milliards de dollars d'ici 2030. Mais l'IA peine à tenir ses promesses de rentabilité et l'enthousiasme des investisseurs commence à se refroidir.

OpenAI a révélé l'existence d'un nouvel outil de cybersécurité jugé si puissant qu'il ne peut être diffusé auprès du grand public. Cette annonce survient quelques jours seulement après que son concurrent Anthropic a lancé son modèle Claude Mythos, conçu pour aider les entreprises à détecter et corriger des failles de sécurité majeures. Comme Anthropic, OpenAI envisage de proposer son outil à un petit groupe de clients pour des raisons de sécurité.

Axios indique qu’il s’agira d’un « produit distinct », mais qu’il ne s’agira ni d’un nouveau modèle ni d’un produit lié à « Spud », le prochain lancement prévu par l’entreprise. Au-delà de cela, les détails sur cet outil sont rares. Cela ne dissipe pas vraiment l’impression qu’OpenAI joue le rôle de suiveur, se contentant de profiter de la vague créée par le rival Anthropic pour ne pas se faire complètement distancer dans le cycle de l’engouement médiatique.

Bien qu'OpenAI dispose déjà d'un programme pilote nommé « Trusted Access for Cyber » depuis la sortie de son modèle GPT-5.3-Codex, le laboratoire d'IA de San Francisco semble désormais vouloir repositionner son offre pour transformer radicalement le paysage de la cybersécurité.

Marketing et projections financières comme moteurs de croissance

Le manque de détails techniques alimente les critiques selon lesquelles OpenAI cherche avant tout à égaler les affirmations marketing d'Anthropic. En effet, alors qu'Anthropic prétend que son outil Claude Mythos peut identifier des vulnérabilités vieilles de trente ans, OpenAI s'efforce de prouver que ses propres outils peuvent atteindre un niveau de performance similaire.Toutefois, il n'est pas possible de vérifier ces informations de façon indépendante.


Les organisations admises à ce programme pilote ont accès à des modèles encore plus performants ou permissifs en matière de cybersécurité afin d’accélérer les efforts de défense légitime. Mais OpenAI n’a pas eu la brillante idée de positionner ce produit comme quelque chose qui va fondamentalement redessiner le paysage cyber comme nous le connaissons. Il doit donc rappeler à tout le monde qu’Anthropic n’est pas le seul acteur sur ce marché.

Au-delà des capacités techniques de ses outils, OpenAI mise sur des ambitions financières colossales pour asseoir sa domination sur le marché de l'IA. OpenAI prévoit d'atteindre 102 milliards de dollars de revenus publicitaires d'ici 2030, un bond immense par rapport aux 2,5 milliards de dollars projetés pour 2026.

Cette stratégie de communication repose sur des prévisions très optimistes, nécessaires selon certains analystes pour maintenir l'intérêt des investisseurs malgré des retours parfois mitigés de la part de ses premiers partenaires. En gros, Sam Altman et son équipe combinent le développement de technologies de pointe réservées à une élite avec une stratégie commerciale agressive pour rester au centre de l'attention mondiale, mais également à flot.

Yann Le Cun critique le battage médiatique autour de Claude Mythos

Si la fuite de Claude Mythos et les déclarations d'Anthropic ont fait grand bruit sur les réseaux sociaux, Yann Le Cun, ancien directeur scientifique de l'IA chez Meta, a qualifié la panique suscitée par Claude Mythos de « mise en scène exagérée ». Ses commentaires sont intervenus après qu’Anthropic a déclaré que « son outil avait détecté des milliers de vulnérabilités » de gravité élevée sur tous les principaux systèmes d’exploitation et navigateurs Web.

« Le drame autour de Mythos = des conneries issues d’une illusion », a écrit Yann Le Cun sur X, en réponse à un billet de la société de sécurité IA Aisle qui affirmait que des modèles plus petits et moins coûteux pourraient reproduire en grande partie l’analyse de vulnérabilité présentée par Anthropic dans son annonce.

Claude Mythos n'est partagé qu'avec un groupe restreint d'entreprises, dont Apple, Google et Microsoft, dans le cadre d'une initiative de 100 millions de dollars baptisée Project Glasswing. Le scepticisme de Yann Le Cun n'est pas isolé. Gary Marcus, chercheur en IA et critique régulier du secteur, a également déclaré que la menace Claude Mythos était exagérée. « Dans une certaine mesure, j'ai l'impression qu'on s'est fait avoir », a écrit Gary Marcus.

Yann Le Cun, né le 8 juillet 1960, est l'ancien directeur scientifique de l'IA de Meta, et chercheur en intelligence artificielle (IA) et vision artificielle (robotique) franco-américain. Il est considéré comme l'un des inventeurs de l'apprentissage profond (deep learning). Il reçoit le prix Turing 2018, le 27 mars 2019, partagé avec Yoshua Bengio et Geoffrey Hinton, et est souvent surnommé le « parrain de l'IA ». Il est opposé aux discours alarmants sur l'IA.

La thérapie psychodynamique comme outil d'évaluation technique

Pour s'assurer que...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de popo
Expert confirmé https://www.developpez.com
Le 14/04/2026 à 10:38
Attendez quelques jours, et ce sera autour de Copilot, de Grok, etc. d'être tellement performant qu'ils ne peuvent les commercialiser.

Bon, allez je ne vous fais pas languir plus longtemps.
Je vous annonce qu'avec mon équipe nous avons créé une IA bien plus efficace et consommant beaucoup moins de ressources que toutes les IA sur le marché.
Mais nous n'allons pas la commercialiser.
Vous comprenez, elle est beaucoup trop efficace.
Elle pourrait être utilisée pour détecter des failles dans les autres IA et même dans Windows .
Et de toutes façons, gagner de l'argent ne nous intéresse pas.
5  0 
Avatar de abrillant
Membre averti https://www.developpez.com
Le 14/04/2026 à 10:55
C'est incroyable comme cela va vite, open AI a développé en secret une AGI mais ils ont peur de la mettre à disposition, qui l'eu cru ?

De mon côté, je viens d'inventer une IA révolutionnaire, elle est même capable de prédire le dosage du café en fonction de l'heure, mais chuuttt, je peux pas la mettre à disposition, sinon la consommation de café pourrait exploser
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 13/04/2026 à 18:45
Citation Envoyé par Mathis Lucas Voir le message
[B][SIZE=4]|...]OpenAI a révélé l'existence d'un nouvel outil de cybersécurité jugé si puissant qu'il ne peut être diffusé auprès du grand public.|...]
S'ils ont des bons produits, alors pourquoi est-ce qu'ils ne proposent que les trucs pourris?

Une vraie compétition de menteurs!

2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 14/04/2026 à 11:52
Le magazine américain The New Yorker vient de publier une enquête poussée sur le sieur Altman, CEO de OpenAI à l'origine de ChatGPT: il y est décrit comme:

Manipulateur, menteur et terriblement imbu de lui-même
L'enquête cite un membre de conseil d'administration qui dit de Altman:

qu'il a un fort désir de plaire dans toutes les interactions avec un manque sociopathe des conséquences qui peuvent découler du fait de tromper quelqu'un
L'enquête cite également un haut responsable de microsoft qui en dit:

Je pense qu'il y a une chance réelle qu'on se souvienne de lui un jour comme d'un escroc de l'envergure de Bernie Madoff ou de Sam Bankman-Fried
Le voilà habillé pour l'hiver

PS: Les termes "manipulateur, menteur et terriblement imbu de lui-même" me semble parfaitement adapté à d'autres acteurs de l'IA à la sauce américaine!
2  0 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 14/04/2026 à 22:32
Question code, honnêtement entre ChatGPT et Claude, il n’y a pas photo, après pleins de tests divers et variés, la seule qui tienne à peux-près la route c’est Claude.

Dernier exemple: le source C de planet Generator: https://hjemmesider.diku.dk/~torbenm/Planet/ seule Claude me l’a converti sans erreur et du premier coup, ChatGPT s’y est repris à plusieurs fois mais à chaque fois il y avait des erreurs, et les autres, se sont révélés encore moins concluants !
0  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 15/04/2026 à 10:34
Sans vouloir défendre OpenAI, il est vrai que Anthropic est très, trop élitiste et bien plus fermé.

Anthropic ne publie jamais rien publiquement, n'informe pas le grand public, ne partage aucun modèle ouvert (alors qu'on a un GPT-OSS, et un Grok-2) et elle a une approche confiscatoire de l'IA.
Ils ont beau faire cout de comm moralisateur sur la "non coopération sur l'AI militaire", je n'ai pas plus confiance en une entreprise qui ne fait aucun effort d'ouverture envers le grand public.
0  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 15/04/2026 à 14:20
Citation Envoyé par Mathis Lucas Voir le message
La note envoyée aux actionnaires met particulièrement l'accent sur la disparité des capacités de calcul entre les deux entités. OpenAI projette d'atteindre une puissance de 30 gigawatts d'ici à 2030, tandis qu'il estime qu'Anthropic ne disposera que de 7 à 8 gigawatts à la fin de l'année 2027. OpenAI qualifie Anthropic d'entreprise limitée par ses capacités de calcul et souligne que son propre rythme de développement est matériellement plus rapide.
Technique imparable, comparer des chiffres qui sont pas calculés sur la même base pour démontrer une hypothèse du supériorité.

Ils comparent leurs objectif à 2030 avec une estimation du résultat du concurrent en 2027.
Genre, le résultat du concurrent ne va pas évoluer entre 2027 et 2030 !

En plus, ce n'est qu'une projection optimiste de leur futurs résultat.
Ils ne sont pas assurés d'y arriver.
0  0