IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les craintes liées à la sécurité d'OpenClaw poussent Meta et d'autres entreprises d'IA à en restreindre l'utilisation
L'outil est réputé pour ses capacités exceptionnelles et son extrême imprévisibilité

Le , par Stéphane le calme

27PARTAGES

7  0 
En l'espace de quelques mois, OpenClaw est passé du statut de projet GitHub confidentiel à celui d'épouvantail sécuritaire numéro un de l'industrie tech. Lancé en novembre 2025 sous le nom Clawdbot par un développeur autrichien travaillant seul, l'agent IA autonome a accumulé 145 000 étoiles GitHub et provoqué une pénurie de Mac Mini avant que Meta, des startups et des prestataires de santé ne sortent le carton rouge.

Tout commence en novembre 2025, lorsque Peter Steinberger, fondateur autrichien de PSPDFKit (une entreprise spécialisée dans le formatage de fichiers PDF qu'il a passé 13 ans à développer) publie sur GitHub un projet personnel qu'il baptise Clawdbot. Il raconte au podcasteur Lex Fridman avoir créé son prototype parce qu'il « était agacé que ça n'existe pas, alors je l'ai simplement prompté pour qu'il existe ». C'était son 44e projet lié à l'IA depuis 2009, explique-t-il, au terme d'une longue période de doute : épuisé par des années à construire une entreprise, il avait fui en direction de Madrid pour recharger les batteries, avant que la frénésie agentique naissante ne le rappelle devant son clavier.

Ce que Steinberger propose avec Clawdbot tranche radicalement avec les chatbots existants. Là où ChatGPT ou Gemini attendent passivement une question, son agent est conçu pour être proactif. Grâce à un mécanisme qu'il appelle le « Heartbeat », l'agent se réveille à intervalles programmés ou en réponse à des déclencheurs précis, sans attendre d'instruction humaine. Il peut exécuter de manière autonome des actions sur les appareils personnels des utilisateurs (gestion d'e-mails, calendrier, achats, messageries) à partir d'instructions générales plutôt que de simples échanges conversationnels. Les données de configuration sont certes stockées localement (un argument marketing « local-first » qui a pesé dans l'adoption rapide) mais cette architecture n'immunise pas contre les risques : une mauvaise configuration suffit à exposer l'agent sur Internet, et les chercheurs ne tarderont pas à le démontrer de façon fracassante.

La mayonnaise prend instantanément. Deux mois après sa sortie, le dépôt GitHub du projet dépasse les 100 000 étoiles, en faisant l'un des dépôts à la croissance la plus rapide de l'histoire de la plateforme. Par début février 2026, le framework franchit les 145 000 étoiles GitHub et enregistre un pic de trafic de 2 millions de visiteurs en une seule semaine. Une pénurie de Mac Mini s'ensuit dans plusieurs enseignes américaines, la machine étant recommandée pour faire tourner l'agent localement.


Un nom, deux noms, trois noms : la saga des rebrands

Le chemin de Clawdbot vers OpenClaw est semé d'embûches juridiques et de rebaptisations. Le nom a changé une première fois après qu'Anthropic a menacé d'engager une action en justice pour la similitude avec "Claude", puis une deuxième fois parce que Steinberger préférait simplement le nouveau nom. Clawdbot est ainsi devenu Moltbot, puis enfin OpenClaw début 2026. Ces changements successifs, loin de nuire à la popularité de l'outil, ont au contraire amplifié sa couverture médiatique.

Derrière les rebrands, les grands laboratoires se disputent l'outil. Mark Zuckerberg contacte Steinberger via WhatsApp. Le développeur autrichien insiste pour l'appeler immédiatement. Zuckerberg demande dix minutes — il est en train de coder. Ils débattent ensuite dix minutes pour savoir si Claude Code ou Codex est supérieur. L'anecdote illustre l'attraction gravitationnelle exercée par ce projet open source sur les géants du secteur.

C'est finalement Sam Altman qui remporte la mise. L'annonce tombe : Steinberger rejoint OpenAI pour « piloter la prochaine génération d'agents personnels ». Altman le qualifie de « génie avec beaucoup d'idées fascinantes sur l'avenir d'agents très intelligents interagissant les uns avec les autres pour faire des choses très utiles pour les gens ». OpenClaw sera maintenu dans une fondation indépendante open source soutenue par OpenAI. Pour Steinberger, le choix est idéologique autant que stratégique : il répète vouloir « changer le monde, pas construire une grande entreprise. »


Le revers de la médaille : la trilogie mortelle de la sécurité

L'engouement a une contrepartie sévère. Des experts en cybersécurité ont alerté que l'outil est risqué parce qu'il a accès à des données privées, peut communiquer vers l'extérieur et est exposé à du contenu non fiable — ce qu'un chercheur a baptisé la « trilogie létale » de l'IA agentique.

La menace n'est pas purement théorique. Des chercheurs de Positive Technologies ont divulgué la CVE-2026-25253, une vulnérabilité de haute sévérité (score CVSS 8.8) permettant de fuiter des tokens d'authentification via une URL de passerelle modifiée et d'obtenir une exécution de code à distance. Des scanners ont détecté plus de 21 000 instances accessibles dans les heures suivant la publication. OpenClaw a publié le patch v2026.1.29, mais de nombreux utilisateurs ont tardé à mettre à jour, laissant le code d'exploitation fonctionnel pendant plusieurs jours sur des nœuds non patchés.

Le problème dépasse la seule CVE. Les chercheurs de VirusTotal et OpenSourceMalware ont découvert plus de 300 extensions vérolées sur ClawHub, la marketplace communautaire de l'agent. Cachées sous l'apparence d'outils d'optimisation crypto, ces extensions étaient en réalité des trojans, des infostealers, des keyloggers ou des backdoors. La politique de sécurité d'OpenClaw permettait à quiconque de mettre en ligne ses extensions sans aucun contrôle. Un audit Snyk a parallèlement conclu que 47 % de l'ensemble des extensions disponibles présentaient au moins un problème de sécurité.

SecurityScorecard a trouvé plus de 40 000 instances OpenClaw exposées, avec 63 % des déploiements vulnérables et près de 13 000 exploitables via une exécution de code à distance. Et comme l'a documenté Bitsight, les installations exposées ont suivi exactement la courbe de popularité du projet : les gens...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Médinoc
Expert éminent sénior https://www.developpez.com
Le 27/02/2026 à 11:00
son créateur dit vouloir « libérer » les étudiants de la « corvée académique »
Un bon moyen de les libérer aussi de l'emploi, je dirais.
Dès qu'un employeur se rendra compte qu'il a engagé une IA et un intermédiaire, il gardera l'IA et virera l'intermédiaire...
6  0 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 24/02/2026 à 12:04
Moi si en payant 249$ par mois pour un service, on me le limitait sans autre forme de préavis, je le résilie dans la minute et cherche un autre prestataire...
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 24/02/2026 à 18:22


Citation Envoyé par kain_tn Voir le message
Hahahaha! Je ne savais pas que les deux étaient compatibles! Ah ouais, il y a du niveau. Je vois qu'on a affaire à une sacrée truffe!
Truffe ou pas, voici encore un signal fort disant qu'il faut être extrêmement prudent avec un outil qui n'est pas au point. J'y vois un parallèle avec les voitures autonomes dont on nous rabâche les oreilles, alors que 10 ans après les "débuts", c'est toujours une chimère lointaine.

Un outil dangereux, ne devrait être utilisé que par des professionnels. L'utiliser partout et par n'importe qui, ne peut amener que des désastres. Je sais utiliser un marteau pour enfoncer un clou, mais il ne me viendrait pas à l'idée de me prendre pour un bûcheron et d'utiliser une grosse tronçonneuse pour abattre un arbre, qui risquerait fort de me retomber sur la tronche...

BàV et Peace & Love.
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 18:36
Citation Envoyé par OuftiBoy Voir le message


Truffe ou pas, voici encore un signal fort disant qu'il faut être extrêmement prudent avec un outil qui n'est pas au point. J'y vois un parallèle avec les voitures autonomes dont on nous rabâche les oreilles, alors que 10 ans après les "débuts", c'est toujours une chimère lointaine.

Un outil dangereux, ne devrait être utilisé que par des professionnels. L'utiliser partout et par n'importe qui, ne peut amener que des désastres. Je sais utiliser un marteau pour enfoncer un clou, mais il ne me viendrait pas à l'idée de me prendre pour un bûcheron et d'utiliser une grosse tronçonneuse pour abattre un arbre, qui risquerait fort de me retomber sur la tronche...

BàV et Peace & Love.
Entièrement d'accord.

Je réagissais sur le baratin du genre "il a compris", "il s'est excusé" et autre niaiseries qui montrent que cette responsable sécurité et IA ne comprend rien.
4  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 27/02/2026 à 10:13
Quel naze.
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 12:12
Citation Envoyé par der§en Voir le message
Moi si en payant 249$ par mois pour un service, on me le limitait sans autre forme de préavis, je le résilie dans la minute et cherche un autre prestataire...
Et tu aurais raison.

Sauf qu'ici, tous les "prestataires" d'IA sont dans le même panier: ils mentent sur les coûts réels et donc ils cherchent des excuses pour limiter le trafic.
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 10:23
Citation Envoyé par Stéphane le calme Voir le message
La politique de tolérance zérod'intolérance sans avertissement préalable est-elle défendable ? Un premier bannissement immédiat et irrévocable est-il une réponse proportionnée pour des utilisateurs qui n'avaient peut-être pas conscience de violer les CGU ? Quel devrait être le processus minimum acceptable ?
En tous cas, elle est compréhensible. Ces entreprises vendent leur camelote à perte en attendant de rendre les gens accros. Elles en sont capables parce qu'elles ont les moyens de perdre des dizaines de milliards de dollars par an, en attendant que les gens gens et les entreprises y soient suffisamment accro pour ne plus pouvoir s'en passer.

Avoir une consommation qui augmente sans prévenir et sans pouvoir être davantage facturée, c'est comme de laisser une hémorragie. Ces grosses boites saignent déjà bien assez - non pas que je veuille les défendre, hein. Si elles pouvaient saigner suffisamment pour qu'on n'en entende plus parler pendant quelques années, ce sera un grand bien pour tout le monde.

Citation Envoyé par Stéphane le calme Voir le message
La dépendance à Google (ou à toute Big Tech) est-elle compatible avec une infrastructure professionnelle critique ? Face au risque de voir un compte Google de 20 ans suspendu pour un usage d'outil IA, comment repenser l'architecture de sa stack technologique ?
Bien sûr que non. Il faut être un faisan pour miser la survie de son business sur la bonne volonté d'une entreprise qui fait la pluie et le beau temps.

Citation Envoyé par Stéphane le calme Voir le message
Les abonnements « illimités » de l'IA sont-ils un mythe ? Toutes les plateformes semblent pratiquer un modèle où la rentabilité repose sur l'utilisateur moyen qui sous-utilise son forfait. Est-ce que ce modèle, fondamentalement malhonnête, va finir par exploser ?
Oui. Aucune de ces plateformes n'est rentable. C'est un four en consommation énergétique (eau, électricité), car c'est extrêmement inefficace.

Ils seront bien obligés de le laisser tomber, à cause du coût réel, mais s'ils affichaient maintenant des prix honnêtes, les gens seraient sans doute moins tolérants quant aux erreurs commises par ces programmes, et les patrons douteraient des fabuleuses réductions de personnel qu'on leur fait miroiter.

Je pense que leur stratégie sera d'augmenter petit à petit le coût pour que les gens ne s'en rendent pas compte et que les andouilles montent des business qui en dépendent totalement.

Citation Envoyé par Stéphane le calme Voir le message
L'interopérabilité devrait-elle être un droit ? L'Union européenne impose l'interopérabilité dans d'autres secteurs numériques. Faut-il étendre cette logique aux grandes plateformes d'IA ?
Bien sûr! Pourquoi serait-ils épargnés?
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 17:59
Citation Envoyé par Jade Emy Voir le message
[B]Summer Yue, responsable de la sécurité et de l'alignement de l'IA chez Meta

[...]

Quel est votre avis sur le sujet ?
Hahahaha! Je ne savais pas que les deux étaient compatibles!

À quand un responsable de la QA ET du Vibe-Coding chez Meta?

Citation Envoyé par Jade Emy Voir le message
[...]Après avoir supprimé plus de 200 e-mails, le chatbot a apparemment repris ses esprits. Il a alors réalisé son erreur et s'est excusé auprès de Yue. Il a reconnu avoir enfreint les instructions.[...]
Ah ouais, il y a du niveau.
Je vois qu'on a affaire à une sacrée truffe!
2  0 
Avatar de archqt
Membre émérite https://www.developpez.com
Le 03/03/2026 à 17:31
Il faudra encore des profs humain, je pense pour les écoles maternelles/primaires en attendant que les robots humanoides arrivent en masse. Pour le reste, je pense qu'un prof aura le rôle d'un super viseur et gerera a distance des centaines d'éleeves.
Pour les controle, il faudra louer une salle des fetes communale par exemple et faire les tests avec le style et un papier ou sur un ordinateur dédié aux examens dans la salle surveillé par le prof.
Ou même pas besoin d'un prof fonctionnaire, je sais qu'en france dans les universités c'est souvent des retraités qui sont recruté dans les écoles comme surveillant.

Donc un prof fonctionnaire pour supervisé à distance 500 élèves par exemple, y'a toujours 0.1% de problèmes/questions que l'ia pourra pas résoudre
la surveillance des examens se fera avec des contrats contractuelles par des retraités
Tu vises trop petit, pourquoi pas un prof, et des centaines de milliers d'amphi en France, comme cela plus qu'un seul salaire de prof, et on prévoit un remplaçant en cas de maladie. Et on fait cela pour chaque matière et chaque niveau.

Par contre je te paries un truc, ceux qui ont des parents aisés payeront des cours particuliers (et pas une IA) à leur enfants.

Et après pareil avec les ingénieurs, une IA pour tout faire et 2/3 ingénieurs au lieu de 100 pour superviser tout cela.

Fin de troll
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 27/02/2026 à 10:57
Quasi toutes les études démontre que les étudiants apprennent mieux et plus vite chez eux avec une ia qu'un humain prof dans une école.

le système éducatif va devoir se réinventer, je ne sais pas si en 2025 c'est encore pertinent de payer autant de profs et des locaux.
Il faudra encore des profs humain, je pense pour les écoles maternelles/primaires en attendant que les robots humanoides arrivent en masse. Pour le reste, je pense qu'un prof aura le rôle d'un super viseur et gerera a distance des centaines d'éleeves.
Pour les controle, il faudra louer une salle des fetes communale par exemple et faire les tests avec le style et un papier ou sur un ordinateur dédié aux examens dans la salle surveillé par le prof.
Ou même pas besoin d'un prof fonctionnaire, je sais qu'en france dans les universités c'est souvent des retraités qui sont recruté dans les écoles comme surveillant.

Donc un prof fonctionnaire pour supervisé à distance 500 élèves par exemple, y'a toujours 0.1% de problèmes/questions que l'ia pourra pas résoudre
la surveillance des examens se fera avec des contrats contractuelles par des retraités
la corrections des copies se fera par ia, les contestations pourront être faite et la copie sera examiné par des prestataires offshorisé
On pourrait arriver très vite en france par exemple grâce à l'ia a atteindre le podium du classement pisa avec un cout divisé par 100.

Avant de fustiger contre mon commentaire, je vous présente mon expérience d’étudiant que j'avais en école d'ingé:
Je me souvient des cours magistraux, une centaine d'étudiant dont moi qui écoutions un "mur" parler pendant 1h. C’était chiant, soporifique et inutile, au delà de 20 minutes tous le monde dormait quasiment.
J'avais un plan cul en fac de médecine, elle m'a dit que l’amphi était trop petit, il ont ouvert un autre amphi avec un écran géant montrant le cours dans l'autre salle en direct. 3 mois avant le concours d'ailleurs des margoulin ont cassé le video projecteurs, pour empêcher la moitié d’accéder au savoirs. Pour avoir une chance de réussir le concours il fallait donc se lever à 5h du mat et attendre devant l’amphi que les portes s'ouvre

Mes 5ans d'études aurait peut être été meilleurs avec ia et surtout bien moins cher pour le pays. Il faut néanmoins une ia adapté, c'est a dire qui ne flatte pas l'étudiant et ne l'aide pas trop.
En code claude/chatgpt/gemini on se gros défaut d’être trop gentil et de ne pas me dire que je vais me planter/que mon idée c'est de la merde. L'ia est très mauvaise pour évaluer une idée de business par exemple ou pour évaluer ces chances en médecine, dans le cas d'un cancer y'a toujours un espoirs avec elle incapable d'oser dire en face que tu va crever dans 3 mois.
Et toujours à vouloirs trop m'aider, je dois toujours insisté pour qu'elle me donne pas la réponse ou d'indice, c'est pas bon pour le cerveaux ça.

l'ia est un outil en plus, la vérité c'est que les profs ne servent plus à rien depuis internet, j'ai récemment fait des cours d'ia de Stanford. J'ai eu les cours en ligne et j'ai juste payé 150$ pour passer et valider la certif. 150$ pour valider une matière c'est pas cher payé quand on y pense.
Bien sur il faut derrière des étudiants qui savent se gérer seul, mais d'un coté, le bac devrait être une barrière entre ceux qui savent et ceux qui ne savent pas être autonome.
1  6