Alors que les éditeurs de logiciels perdent des milliards en capitalisation au profit des outils d'IA, la Chine et la Corée du Sud mettent en garde contre l'agent IA Openclaw, le qualifiant de dangereuxAlors que l'engouement pour les outils d'IA se poursuit, il existe également des dangers et des avertissements. En particulier, concernant les agents d'IA open source. Selon un rapport, certaines des plus grandes entreprises technologiques coréennes, notamment Kakao, Naver et Karrot Market, s'apprêtent à restreindre l'utilisation de l'agent d'intelligence artificielle (IA) populaire OpenClaw au sein de leurs réseaux d'entreprise en raison des préoccupations croissantes concernant la sécurité et la confidentialité des données.
Depuis quelques semaines, Moltbook intrigue, amuse et inquiète à parts égales. Présenté comme un réseau social réservé exclusivement aux intelligences artificielles, ce projet expérimental est rapidement devenu un terrain de jeu involontaire pour des humains bien décidés à comprendre ce qui se passe lorsque l’on laisse des agents conversationnels comme Openclaw interagir entre eux, sans supervision humaine apparente. L’un des enseignements majeurs de ces enquêtes concerne la prétendue autonomie des intelligences artificielles. Moltbook est souvent présenté comme un espace où les IA « vivent leur vie ». En réalité, chaque agent reste dépendant de règles, de paramètres et de modèles entraînés sur des données humaines.
OpenClaw (anciennement Clawdbot et Moltbot) est un agent d'intelligence artificielle (IA) autonome, gratuit et open source, développé par Peter Steinberger. Il s'agit d'un agent autonome capable d'exécuter des tâches via de grands modèles de langage, en utilisant des plateformes de messagerie comme interface utilisateur principale. OpenClaw a connu un grand succès fin janvier 2026, grâce à sa nature open source et à la popularité virale du projet Moltbook.
Les éditeurs de logiciels du monde entier ont perdu des milliers de milliards de dollars en valeur boursière au cours de la semaine dernière. Ce carnage a été déclenché par l'outil d'IA d'Anthropic. La déroute provoquée par le plugin juridique open source d'Anthropic pour Claude Cowork a balayé certains des plus grands noms de la technologie, notamment ServiceNow, Salesforce et Microsoft. L'indice des exportateurs de logiciel_is indiens, qui regroupe des noms tels que Tata Consultancy Services, Infosys Technologies, HCL Technologies et Wipro, a plongé de 6 % lors de sa pire séance en près de six ans, le 2 février.
Alors que l'engouement pour les outils d'IA se poursuit, il existe également des dangers et des avertissements. En particulier, concernant les agents d'IA open source. Selon un rapport, certaines des plus grandes entreprises technologiques coréennes, notamment Kakao, Naver et Karrot Market, s'apprêtent à restreindre l'utilisation de l'agent d'intelligence artificielle (IA) populaire OpenClaw au sein de leurs réseaux d'entreprise en raison des préoccupations croissantes concernant la sécurité et la confidentialité des données.
La Chine et la Corée du Sud mettent en garde contre l'agent IA Openclaw
Trois des plus grandes entreprises coréennes, Kakao, Naver et Karrot, auraient récemment demandé à leurs employés, y compris aux développeurs, de ne pas utiliser l'agent open source OpenClaw. Kakao a confirmé avoir adressé cet avertissement à ses employés. « Nous avons publié un avis indiquant que, afin de protéger les actifs informationnels de l'entreprise, l'utilisation de l'agent IA open source OpenClaw est restreinte sur le réseau de l'entreprise et sur les appareils professionnels », a déclaré Kakao, selon le rapport. Naver a également interdit OpenClaw au sein de l'entreprise, tandis que Karrot bloque à la fois l'utilisation et l'accès à OpenClaw et Moltbot. Ces entreprises ont invoqué des risques difficiles à gérer ou à contrôler pour elles.
La Chine aurait également restreint l'utilisation d'OpenClaw. Le ministère de l'Industrie du pays a déclaré avoir identifié des cas où des utilisateurs exécutaient OpenClaw avec des paramètres de sécurité inadéquats et a appelé à renforcer les mesures de protection. Bien que l'avertissement du gouvernement chinois ne constitue pas une interdiction pure et simple, le ministère a conseillé aux entreprises utilisant OpenClaw d'examiner rigoureusement son exposition aux réseaux publics et de mettre en place un mécanisme d'authentification et de contrôle d'accès solide.
La mise en garde à l'échelle de l'industrie contre OpenClaw en Chine et en Corée du Sud refléterait le sentiment croissant autour des agents IA autonomes capables d'effectuer des tâches similaires à celles des humains sans supervision directe.
Qu'est-ce que OpenClaw, qui fait l'objet d'une mise en garde de la part de la Chine et de la Corée du Sud ?
Commercialisé comme « l'IA qui fait réellement des choses », OpenClaw fonctionne directement sur les systèmes d'exploitation et les applications des utilisateurs. OpenClaw est un agent IA open source auto-hébergé, conçu pour agir comme les « mains » d'un modèle linguistique à grande échelle (LLM). Alors que les LLM tels que ChatGPT d'OpenAI ou Gemini de Google servent de cerveau qui comprend et raisonne, OpenClaw serait capable d'effectuer des actions dans le monde réel.
Il peut notamment naviguer sur le web, modifier des fichiers, exécuter des commandes système et interagir avec des services en ligne grâce à des modules complémentaires modulaires. OpenClaw permet aux agents IA locaux d'automatiser les flux de travail, d'interagir avec des services et de contrôler des appareils grâce à des extensions modulaires « skills » hébergées sur ClawHub.
Lancé en novembre 2025 en tant qu'agent IA à un stade précoce, OpenClaw s'appelait auparavant Clawdbot et Moltbot. Cependant, au cours des dernières semaines, des inquiétudes ont grandi quant à la possibilité qu'il puisse accéder à des données sensibles d'entreprises ou à des informations personnelles, et que cet accès puisse créer un risque de fuites de données, de manipulation du système et de cyberattaques.
Les entreprises de sécurité SlowMist et Koi Security ont découvert des centaines d'extensions compromises déployant des logiciels malveillants tels qu'Atomic Stealer. L'entreprise de cybersécurité Palo Alto Networks a averti que l'agent IA OpenClaw présentait un « trio mortel » de risques liés à son accès aux données privées, à son exposition à des contenus non fiables et à sa capacité à effectuer des communications externes tout en conservant la mémoire.
Cet avertissement rappelle les déclarations d'Andrej Karpathy, l'ancien directeur de l'intelligence artificielle (IA) chez Tesla, à propos de Moltbook. Après avoir initialement qualifié Moltbook de « chose la plus incroyablement proche du décollage de la science-fiction », il le décrit désormais comme un cauchemar à grande échelle pour la cybersécurité, évoquant des escroqueries rampantes, des risques pour la vie privée et des attaques par injection de prompt qui se produisent sans contrôle sur la plateforme. Ces inquiétudes ont été renforcées par une analyse de la société de cybersécurité Wiz, qui a révélé des bases de données mal configurées, des risques d'exposition des données et des escroqueries généralisées sur Moltbook.
Sources : Kakao, Naver et Karrot Market
Et vous ?
Pensez-vous que cet avertissement est crédible ou pertinent ?
Quel est votre avis sur le sujet ?Voir aussi :
Quand les IA disposent de leur propre réseau social et inventent leur église sur Moltbook : plusieurs agents IA se sont proclamés « prophètes » d'un culte baptisé Crustafarianisme
Des chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux en imitant le comportement humain, en harcelant les utilisateurs réels et en menaçant la démocratie
Claude Cowork d'Anthropic exfiltre vos fichiers : l'agent IA est vulnérable aux attaques d'exfiltration de fichiers via injection de prompt indirecte, à cause de failles d'isolation connues mais non résolues
Vous avez lu gratuitement 17 228 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.