IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Après qu'Anthropic ait bloqué brutalement Openclaw techniquement et légalement, Sam Altman l'opportuniste en profite pour récupérer le bébé dans le giron d'OpenAI

Le , par Alex

31PARTAGES

6  0 
OpenAI a récemment annoncé avoir embauché Peter Steinberger, le créateur du framework d'agent IA viral OpenClaw, dans ce qui pourrait être le recrutement le plus stratégique de l'entreprise cette année. Cette embauche est largement considérée comme une conséquence directe de celle d'Anthropic. Pour OpenAI, il s'agit d'un écosystème plug-and-play qui vient s'ajouter à sa base de plus de 100 millions d'utilisateurs ChatGPT. Pour Anthropic, c'est une étude de cas sur la manière dont les services juridiques peuvent aller plus vite que les équipes de partenariat, et ce que cela vous coûte.

On pensait avoir trouvé l’outil parfait pour coder avec une IA. OpenCode permettait de jongler entre Claude, GPT-4 et d’autres modèles au sein d’un seul terminal, en toute fluidité. Mais en début d’année 2026, plusieurs développeurs abonnés à Claude Code ont constaté une panne soudaine : leur outil préféré, souvent un client open source comme OpenCode ou Clawdbot, ne pouvait plus accéder au modèle Claude. Très vite, la cause est identifiée : Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée. Pour ses utilisateurs, c’est la douche froide. Pour ses concurrents, un avertissement. Et pour la communauté open source, une piqûre de rappel : rien n’est vraiment libre dans le monde des IA propriétaires.

Pourtant, OpenClaw, que ses utilisateurs les plus fidèles ont d'abord connu sous les noms de ClawdBot, puis Moltbot (rebaptisé sous la pression d'Anthropic, trop proche phonétiquement de « Claude »), est un agent IA agentic open source populaire. OpenClaw permet à un LLM de prendre le contrôle d'un système : gestion des emails, des calendriers, des scripts, navigation web autonome, accès aux fichiers, connexion aux messageries (WhatsApp, Telegram, Signal, Discord…). Le tout en mémoire persistante, tourné 24h/24 depuis votre machine ou votre VPS. Un développeur autrichien a même témoigné avec enthousiasme qu'OpenClaw « change sa vie » en lui permettant de devenir un « super manager » numérique.

Mais pendant que certains développeurs célèbrent cette « révolution », les experts en cybersécurité sonnent l'alarme avec une urgence rarement vue dans l'industrie. Kaspersky met en lumière plusieurs failles et mauvaises pratiques de déploiement autour d’OpenClaw. Le constat est clair : des instances accessibles publiquement sur Internet présentent des vulnérabilités critiques liées à des configurations inadéquates, ouvrant la porte à des abus potentiellement graves.

C'est l'équipe STRIKE de SecurityScorecard qui a mis le feu aux poudres le 9 février avec la publication d'un rapport retentissant. Au moment de la publication, elle dénombrait 40 000 instances OpenClaw accessibles depuis l'internet. Quelques heures plus tard, ce chiffre avait déjà grimpé à 135 000. Parmi ces déploiements, 45 % sont hébergés chez Alibaba Cloud, 37 % des instances se trouvant en Chine — ce qui laisse penser que des templates de déploiement non sécurisés sont réutilisés à grande échelle.

Malgré ces alertes sur les vulnérabilités d’OpenClaw, OpenAI a récemment annoncé avoir embauché Peter Steinberger, le créateur du framework d'agent IA viral OpenClaw, dans ce qui pourrait être le recrutement le plus stratégique de l'entreprise cette année. Cet accord offre à Sam Altman un écosystème open source prêt à l'emploi, une plateforme d'agents distribuée à l'échelle mondiale et un fondateur qui a refusé la possibilité de créer sa propre entreprise, estimant qu'OpenAI lui permettrait d'atteindre plus rapidement ses objectifs.


Altman a annoncé cette embauche dimanche sur X, déclarant que Steinberger « pilotera la prochaine génération d'agents personnels ». OpenClaw, l'outil open source qui permet aux utilisateurs de créer des agents IA pour gérer leurs e-mails, réserver des vols, gérer leurs calendriers et communiquer entre eux sur un réseau social réservé aux bots appelé MoltBook, va évoluer vers une structure de fondation avec le soutien continu d'OpenAI.

« L'avenir sera extrêmement multi-agents », a écrit Altman. « Nous pensons que cela deviendra rapidement un élément central de notre offre de produits. » Le contexte est important ici. Anthropic vient de conclure un tour de financement de 30 milliards de dollars et a diffusé une publicité pendant le Super Bowl qui visait directement OpenAI. La rivalité a dépassé le stade de la guerre des modèles. L'enjeu est désormais la notoriété auprès des développeurs, les écosystèmes d'agents et le contrôle sur la manière dont l'IA autonome est réellement construite.

Peter Steinberger rejoint OpenAI pour développer la prochaine génération d'agents personnels. C'est un génie qui a beaucoup d'idées étonnantes sur l'avenir des agents très intelligents qui interagissent entre eux pour rendre de grands services aux gens. Nous pensons que cela deviendra rapidement un élément central de notre offre de produits.

OpenClaw sera hébergé par une fondation en tant que projet open source qu'OpenAI continuera à soutenir. L'avenir sera extrêmement multi-agents et il est important pour nous de soutenir l'open source dans ce cadre.


Cette embauche est largement considérée comme une conséquence directe de celle d'Anthropic. OpenClaw ne se contentait pas de travailler avec les modèles d'Anthropic. Il recommandait Claude Opus 4.5 comme modèle par défaut à des millions d'utilisateurs. Le projet était en fait un moteur de croissance gratuit pour Claude, qui a accumulé 145 000 étoiles GitHub, 1,5 million d'agents et 2 millions de visiteurs hebdomadaires en un temps record.

Quelle a été la réaction d'Anthropic ? Tout d'abord, elle a restreint l'accès à l'API début janvier sans avertissement, rompant du jour au lendemain l'intégration fondamentale d'OpenClaw. Ensuite, son équipe juridique a envoyé une mise en demeure, arguant que le nom original du projet, « Clawdbot », ressemblait trop à « Claude ». Steinberger s'est conformé à cette demande lors d'un appel Discord à 5 heures du matin.

Dans le chaos provoqué par la suppression des anciens identifiants, des escrocs spécialisés dans les cryptomonnaies ont piraté les comptes GitHub et X du projet et ont mis en place un système de manipulation boursière (pump-and-dump) qui leur a rapporté 16 millions de dollars. Au lieu de discuter d'un partenariat, Anthropic a envoyé des avocats. Steinberger a passé les semaines suivantes à San Francisco, où il a rencontré tous les grands laboratoires d'IA. Meta et OpenAI lui ont tous deux fait des offres. Il a choisi OpenAI.

Ce qui rendait OpenClaw si attrayant était également ce qui le rendait si précieux. La plateforme permettait aux utilisateurs d'exécuter des agents localement sur leur propre matériel, sans dépendre du cloud ni d'un modèle unique. C'est cette flexibilité qui a permis à OpenClaw de se répandre rapidement en Chine, Baidu prévoyant d'intégrer directement l'accès à OpenClaw dans son application principale pour smartphones.

Dans un article de blog, Steinberger a déclaré que créer une entreprise autour d'OpenClaw ne l'avait jamais intéressé. « Ce que je veux, c'est changer le monde, pas créer une grande entreprise, et m'associer à OpenAI est le moyen le plus rapide d'y parvenir. » Il rejoindra l'équipe Codex, où ses compétences en matière de création d'agents pourraient remodeler l'approche d'OpenAI en matière d'outils autonomes.


Cette embauche vous indique la direction que prend le secteur. La course à l'armement autour des benchmarks et de la taille des modèles cède la place à quelque chose de plus complexe et de plus pratique : amener les agents IA à faire des choses utiles dans des applications, des services et des flux de travail réels. La communauté OpenClaw a déjà livré plus de 100 compétences d'agents, une prise en charge du streaming Telegram et une version bêta récente axée sur le renforcement de la sécurité.

Pour OpenAI, il s'agit d'un écosystème plug-and-play qui vient s'ajouter à sa base de plus de 100 millions d'utilisateurs ChatGPT. Pour Anthropic, c'est une étude de cas sur la manière dont les services juridiques peuvent aller plus vite que les équipes de partenariat, et ce que cela vous coûte. Steinberger est resté simple quant à la suite : « Ma prochaine mission est de créer un agent que même ma mère pourra utiliser. »

Alors que l'engouement pour les outils d'IA se poursuit, il existe également des dangers et des avertissements. En particulier, concernant les agents d'IA open source. Selon un rapport, certaines des plus grandes entreprises technologiques coréennes, notamment Kakao, Naver et Karrot Market, s'apprêtent à restreindre l'utilisation de l'agent d'intelligence artificielle (IA) populaire OpenClaw au sein de leurs réseaux d'entreprise en raison des préoccupations croissantes concernant la sécurité et la confidentialité des données. La mise en garde à l'échelle de l'industrie contre OpenClaw en Chine et en Corée du Sud refléterait le sentiment croissant autour des agents IA autonomes capables d'effectuer des tâches similaires à celles des humains sans supervision directe.

Un cas a souligné cela. Un agent d'intelligence artificielle autonome nommé MJ Rathbun a récemment orchestré une campagne de dénigrement publique contre Scott Shambaugh, mainteneur bénévole du célèbre projet Python matplotlib, après le rejet...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Médinoc
Expert éminent sénior https://www.developpez.com
Le 27/02/2026 à 11:00
son créateur dit vouloir « libérer » les étudiants de la « corvée académique »
Un bon moyen de les libérer aussi de l'emploi, je dirais.
Dès qu'un employeur se rendra compte qu'il a engagé une IA et un intermédiaire, il gardera l'IA et virera l'intermédiaire...
4  0 
Avatar de Médinoc
Expert éminent sénior https://www.developpez.com
Le 18/02/2026 à 10:30
OpenClaw permet à un LLM de prendre le contrôle d'un système : gestion des emails, des calendriers, des scripts, navigation web autonome, accès aux fichiers, connexion aux messageries (WhatsApp, Telegram, Signal, Discord…). Le tout en mémoire persistante, tourné 24h/24
Et il y en a à qui ça inspire l’engouement plutôt que la terreur.
3  0 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 24/02/2026 à 12:04
Moi si en payant 249$ par mois pour un service, on me le limitait sans autre forme de préavis, je le résilie dans la minute et cherche un autre prestataire...
3  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 24/02/2026 à 18:22


Citation Envoyé par kain_tn Voir le message
Hahahaha! Je ne savais pas que les deux étaient compatibles! Ah ouais, il y a du niveau. Je vois qu'on a affaire à une sacrée truffe!
Truffe ou pas, voici encore un signal fort disant qu'il faut être extrêmement prudent avec un outil qui n'est pas au point. J'y vois un parallèle avec les voitures autonomes dont on nous rabâche les oreilles, alors que 10 ans après les "débuts", c'est toujours une chimère lointaine.

Un outil dangereux, ne devrait être utilisé que par des professionnels. L'utiliser partout et par n'importe qui, ne peut amener que des désastres. Je sais utiliser un marteau pour enfoncer un clou, mais il ne me viendrait pas à l'idée de me prendre pour un bûcheron et d'utiliser une grosse tronçonneuse pour abattre un arbre, qui risquerait fort de me retomber sur la tronche...

BàV et Peace & Love.
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 18:36
Citation Envoyé par OuftiBoy Voir le message


Truffe ou pas, voici encore un signal fort disant qu'il faut être extrêmement prudent avec un outil qui n'est pas au point. J'y vois un parallèle avec les voitures autonomes dont on nous rabâche les oreilles, alors que 10 ans après les "débuts", c'est toujours une chimère lointaine.

Un outil dangereux, ne devrait être utilisé que par des professionnels. L'utiliser partout et par n'importe qui, ne peut amener que des désastres. Je sais utiliser un marteau pour enfoncer un clou, mais il ne me viendrait pas à l'idée de me prendre pour un bûcheron et d'utiliser une grosse tronçonneuse pour abattre un arbre, qui risquerait fort de me retomber sur la tronche...

BàV et Peace & Love.
Entièrement d'accord.

Je réagissais sur le baratin du genre "il a compris", "il s'est excusé" et autre niaiseries qui montrent que cette responsable sécurité et IA ne comprend rien.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 27/02/2026 à 10:13
Quel naze.
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 12:12
Citation Envoyé par der§en Voir le message
Moi si en payant 249$ par mois pour un service, on me le limitait sans autre forme de préavis, je le résilie dans la minute et cherche un autre prestataire...
Et tu aurais raison.

Sauf qu'ici, tous les "prestataires" d'IA sont dans le même panier: ils mentent sur les coûts réels et donc ils cherchent des excuses pour limiter le trafic.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 10:23
Citation Envoyé par Stéphane le calme Voir le message
La politique de tolérance zérod'intolérance sans avertissement préalable est-elle défendable ? Un premier bannissement immédiat et irrévocable est-il une réponse proportionnée pour des utilisateurs qui n'avaient peut-être pas conscience de violer les CGU ? Quel devrait être le processus minimum acceptable ?
En tous cas, elle est compréhensible. Ces entreprises vendent leur camelote à perte en attendant de rendre les gens accros. Elles en sont capables parce qu'elles ont les moyens de perdre des dizaines de milliards de dollars par an, en attendant que les gens gens et les entreprises y soient suffisamment accro pour ne plus pouvoir s'en passer.

Avoir une consommation qui augmente sans prévenir et sans pouvoir être davantage facturée, c'est comme de laisser une hémorragie. Ces grosses boites saignent déjà bien assez - non pas que je veuille les défendre, hein. Si elles pouvaient saigner suffisamment pour qu'on n'en entende plus parler pendant quelques années, ce sera un grand bien pour tout le monde.

Citation Envoyé par Stéphane le calme Voir le message
La dépendance à Google (ou à toute Big Tech) est-elle compatible avec une infrastructure professionnelle critique ? Face au risque de voir un compte Google de 20 ans suspendu pour un usage d'outil IA, comment repenser l'architecture de sa stack technologique ?
Bien sûr que non. Il faut être un faisan pour miser la survie de son business sur la bonne volonté d'une entreprise qui fait la pluie et le beau temps.

Citation Envoyé par Stéphane le calme Voir le message
Les abonnements « illimités » de l'IA sont-ils un mythe ? Toutes les plateformes semblent pratiquer un modèle où la rentabilité repose sur l'utilisateur moyen qui sous-utilise son forfait. Est-ce que ce modèle, fondamentalement malhonnête, va finir par exploser ?
Oui. Aucune de ces plateformes n'est rentable. C'est un four en consommation énergétique (eau, électricité), car c'est extrêmement inefficace.

Ils seront bien obligés de le laisser tomber, à cause du coût réel, mais s'ils affichaient maintenant des prix honnêtes, les gens seraient sans doute moins tolérants quant aux erreurs commises par ces programmes, et les patrons douteraient des fabuleuses réductions de personnel qu'on leur fait miroiter.

Je pense que leur stratégie sera d'augmenter petit à petit le coût pour que les gens ne s'en rendent pas compte et que les andouilles montent des business qui en dépendent totalement.

Citation Envoyé par Stéphane le calme Voir le message
L'interopérabilité devrait-elle être un droit ? L'Union européenne impose l'interopérabilité dans d'autres secteurs numériques. Faut-il étendre cette logique aux grandes plateformes d'IA ?
Bien sûr! Pourquoi serait-ils épargnés?
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 17:59
Citation Envoyé par Jade Emy Voir le message
[B]Summer Yue, responsable de la sécurité et de l'alignement de l'IA chez Meta

[...]

Quel est votre avis sur le sujet ?
Hahahaha! Je ne savais pas que les deux étaient compatibles!

À quand un responsable de la QA ET du Vibe-Coding chez Meta?

Citation Envoyé par Jade Emy Voir le message
[...]Après avoir supprimé plus de 200 e-mails, le chatbot a apparemment repris ses esprits. Il a alors réalisé son erreur et s'est excusé auprès de Yue. Il a reconnu avoir enfreint les instructions.[...]
Ah ouais, il y a du niveau.
Je vois qu'on a affaire à une sacrée truffe!
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 27/02/2026 à 10:57
Quasi toutes les études démontre que les étudiants apprennent mieux et plus vite chez eux avec une ia qu'un humain prof dans une école.

le système éducatif va devoir se réinventer, je ne sais pas si en 2025 c'est encore pertinent de payer autant de profs et des locaux.
Il faudra encore des profs humain, je pense pour les écoles maternelles/primaires en attendant que les robots humanoides arrivent en masse. Pour le reste, je pense qu'un prof aura le rôle d'un super viseur et gerera a distance des centaines d'éleeves.
Pour les controle, il faudra louer une salle des fetes communale par exemple et faire les tests avec le style et un papier ou sur un ordinateur dédié aux examens dans la salle surveillé par le prof.
Ou même pas besoin d'un prof fonctionnaire, je sais qu'en france dans les universités c'est souvent des retraités qui sont recruté dans les écoles comme surveillant.

Donc un prof fonctionnaire pour supervisé à distance 500 élèves par exemple, y'a toujours 0.1% de problèmes/questions que l'ia pourra pas résoudre
la surveillance des examens se fera avec des contrats contractuelles par des retraités
la corrections des copies se fera par ia, les contestations pourront être faite et la copie sera examiné par des prestataires offshorisé
On pourrait arriver très vite en france par exemple grâce à l'ia a atteindre le podium du classement pisa avec un cout divisé par 100.

Avant de fustiger contre mon commentaire, je vous présente mon expérience d’étudiant que j'avais en école d'ingé:
Je me souvient des cours magistraux, une centaine d'étudiant dont moi qui écoutions un "mur" parler pendant 1h. C’était chiant, soporifique et inutile, au delà de 20 minutes tous le monde dormait quasiment.
J'avais un plan cul en fac de médecine, elle m'a dit que l’amphi était trop petit, il ont ouvert un autre amphi avec un écran géant montrant le cours dans l'autre salle en direct. 3 mois avant le concours d'ailleurs des margoulin ont cassé le video projecteurs, pour empêcher la moitié d’accéder au savoirs. Pour avoir une chance de réussir le concours il fallait donc se lever à 5h du mat et attendre devant l’amphi que les portes s'ouvre

Mes 5ans d'études aurait peut être été meilleurs avec ia et surtout bien moins cher pour le pays. Il faut néanmoins une ia adapté, c'est a dire qui ne flatte pas l'étudiant et ne l'aide pas trop.
En code claude/chatgpt/gemini on se gros défaut d’être trop gentil et de ne pas me dire que je vais me planter/que mon idée c'est de la merde. L'ia est très mauvaise pour évaluer une idée de business par exemple ou pour évaluer ces chances en médecine, dans le cas d'un cancer y'a toujours un espoirs avec elle incapable d'oser dire en face que tu va crever dans 3 mois.
Et toujours à vouloirs trop m'aider, je dois toujours insisté pour qu'elle me donne pas la réponse ou d'indice, c'est pas bon pour le cerveaux ça.

l'ia est un outil en plus, la vérité c'est que les profs ne servent plus à rien depuis internet, j'ai récemment fait des cours d'ia de Stanford. J'ai eu les cours en ligne et j'ai juste payé 150$ pour passer et valider la certif. 150$ pour valider une matière c'est pas cher payé quand on y pense.
Bien sur il faut derrière des étudiants qui savent se gérer seul, mais d'un coté, le bac devrait être une barrière entre ceux qui savent et ceux qui ne savent pas être autonome.
1  3