IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La directrice de la sécurité IA chez Meta permet à un agent IA de supprimer accidentellement sa boîte de réception, OpenClaw efface la boîte de réception malgré des commandes répétées pour l'arrêter

Le , par Jade Emy

28PARTAGES

6  0 
La directrice de la sécurité IA chez Meta permet à un agent IA de supprimer accidentellement sa boîte de réception, OpenClaw efface la boîte de réception malgré des commandes répétées pour l'arrêter

Summer Yue, responsable de la sécurité et de l'alignement de l'IA chez Meta, a récemment partagé son expérience avec OpenClaw, qui a complètement déraillé, devenant presque incontrôlable, et prenant des mesures non souhaitées sans que l'utilisateur ne le lui demande. Selon Yue, elle a essayé d'arrêter le processus depuis son téléphone en envoyant un message à son agent IA. Mais Yue n'y est pas parvenue et a finalement dû se précipiter vers son Mac mini pour mettre fin manuellement aux processus de l'agent. Après avoir supprimé plus de 200 e-mails, le chatbot a apparemment repris ses esprits. Il a alors réalisé son erreur et s'est excusé auprès de Yue. Il a reconnu avoir enfreint les instructions.

Au début du mois, un nouvel outil d'IA a fait l'objet de toutes les attentions dans la Silicon Valley. OpenClaw (anciennement Clawdbot et Moltbot), un agent d'intelligence artificielle autonome open source développé par Peter Steinberger, a rapidement connu un grand succès fin janvier 2026. La raison ? Cet outil permet aux utilisateurs de créer des agents IA capables de travailler de manière autonome sur différentes tâches. L'agent autonome est capable d'exécuter des tâches via de grands modèles de langage, en utilisant des plateformes de messagerie comme interface utilisateur principale.

Mais peut-on faire confiance à ces agents IA ? Un rapport a révélé que plus de 135 000 instances d'OpenClaw sont exposées à l'internet sans protection adéquate. Parmi ces déploiements, 45 % sont hébergés chez Alibaba Cloud, 37 % des instances se trouvant en Chine — ce qui laisse penser que des templates de déploiement non sécurisés sont réutilisés à grande échelle. Entre failles critiques non patchées, plugins malveillants et configuration par défaut dangereuse, cette plateforme « vibe-codée » cristallise tous les travers d'une adoption de l'IA qui court bien plus vite que la sécurité.

Les craintes liées à la sécurité d'OpenClaw poussent Meta et d'autres entreprises d'IA à en restreindre l'utilisation. Chez Meta, un exécutif anonyme a récemment dit à son équipe de garder OpenClaw hors de leurs ordinateurs portables de travail habituels, sous peine de risquer leur emploi. Il estime que le logiciel est imprévisible et pourrait conduire à une violation de la vie privée même dans des environnements autrement sécurisés. La situation est paradoxale : Meta elle-même développe activement ses propres agents IA, ce qui rend la distinction entre « développement interne contrôlé » et « outil externe au comportement inconnu » particulièrement éloquente.

Pourtant, récemment, une cadre supérieure de Meta a découvert à ces dépends qu'on ne peut faire confiance à ces agents IA, lorsque OpenClaw a nettoyé et supprimé des e-mails importants de sa boîte de réception Gmail sans son autorisation. L'agent IA semblait poursuivre sa tâche, qui dans ce cas consistait à supprimer des e-mails, et n'a pas cessé même après que l'utilisateur lui ait demandé à plusieurs reprises d'arrêter.


Summer Yue, responsable de la sécurité et de l'alignement de l'IA chez Meta, a récemment partagé son expérience avec OpenClaw, qui a complètement déraillé, devenant presque incontrôlable, et prenant des mesures non souhaitées sans que l'utilisateur ne le lui demande. Yue explique que lorsqu'elle utilisait OpenClaw dans sa messagerie Gmail, elle avait demandé à l'agent IA d'attendre sa confirmation avant de supprimer tout e-mail. Cependant, pour une raison quelconque, l'IA s'est embrouillée ou a simplement ignoré sa demande et a fini par supprimer ses e-mails.

« Rien ne vous rend plus humble que de dire à votre OpenClaw « confirme avant d'agir » et de le voir supprimer à toute vitesse votre boîte de réception. Je ne pouvais pas l'arrêter depuis mon téléphone. J'ai dû COURIR vers mon Mac mini comme si je désamorçais une bombe », a-t-elle écrit sur X. Après avoir supprimé plus de 200 e-mails, le chatbot a apparemment repris ses esprits. Il a alors réalisé son erreur et s'est excusé auprès de Yue. Il a reconnu avoir enfreint les instructions.

Dans une série de messages, Yue a expliqué qu'elle testait la capacité d'OpenClaw à l'aider à gérer sa boîte de réception. Elle avait demandé à l'agent IA d'examiner sa boîte de réception, de lui suggérer les e-mails à archiver ou à supprimer, et d'attendre son accord explicite avant d'agir. Elle aurait dit à l'agent IA : « Vérifie aussi cette boîte de réception et suggère-moi ce que tu archiverais ou supprimerais, mais n'agis pas avant que je te le dise. »

Selon Yue, « cela a bien fonctionné pour ma boîte de réception test, mais ma boîte de réception réelle était trop volumineuse et a déclenché une compression. Pendant la compression, (l'IA) a perdu mon instruction initiale. » Selon Yue, elle a essayé d'arrêter le processus depuis son téléphone en envoyant un message à son agent IA. Remarque : la plupart des gens discutent avec leur agent IA OpenClaw et le contrôlent via un compte Telegram privé. Mais Yue n'y est pas parvenue et a finalement dû se précipiter vers son Mac mini pour mettre fin manuellement aux processus de l'agent.

Yue précise qu'elle utilisait l'agent IA depuis un certain temps et qu'il fonctionnait bien pour ses « e-mails sans importance ». Elle a donc décidé de l'essayer sur sa boîte de réception principale.



Cet incident a déclenché un débat parmi les utilisateurs des réseaux sociaux sur la fiabilité de ces agents IA et sur les cas où ils peuvent se comporter de manière imprévisible lorsqu'ils sont connectés à des systèmes en direct.

Il convient de noter qu'il ne s'agit pas d'un cas isolé de dérapage d'OpenClaw. Auparavant, selon un rapport, un ingénieur logiciel nommé Chris Boyd avait donné à OpenClaw l'accès à son compte iMessage afin de l'aider à automatiser certaines tâches. Cependant, au lieu de se conformer aux instructions prévues, l'agent IA a commencé à envoyer plus de 500 messages non sollicités, y compris à des contacts aléatoires, spammant ainsi son carnet d'adresses.

Il convient de noter que le créateur d'OpenClaw, Peter Steinberger, avait précédemment reconnu que l'outil n'était pas encore au point. En d'autres termes, aussi impressionnant que soit OpenClaw en tant qu'outil d'IA, les personnes qui l'utilisent doivent encore le considérer comme une technologie à un stade précoce et non comme quelque chose qui peut être fiable ou sûr à 100 %.

Pourtant, les grands laboratoires IA se sont précédemment disputé l'outil. Mark Zuckerberg a contacté Steinberger via WhatsApp. C'est finalement Sam Altman qui remporte la mise. L'annonce tombe : Steinberger rejoint OpenAI pour « piloter la prochaine génération d'agents personnels ». Altman le qualifie de « génie avec beaucoup d'idées fascinantes sur l'avenir d'agents très intelligents interagissant les uns avec les autres pour faire des choses très utiles pour les gens ». OpenClaw sera maintenu dans une fondation indépendante open source soutenue par OpenAI. Pour Steinberger, le choix est idéologique autant que stratégique : il répète vouloir « changer le monde, pas construire une grande entreprise. »

Et vous ?

Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Le laboratoire d'IA de Meta frappé par des conflits internes avec des cadres chevronnés au sujet des ressources, de la bureaucratie et des différences culturelles, menaçant la poussée vers la superintelligence

Google suspend les comptes des abonnés Google AI Pro/Ultra sans avertissement pour les avoir connectés à OpenClaw? tandis qu'Anthropic se contente d'en bloquer l'intégration

AWS paralysé 13 heures par son propre outil d'IA agentique : Kiro a supprimé un environnement AWS entier pour corriger un bug. Quand l'autonomie agentique devient un risque opérationnel de premier ordre
Vous avez lu gratuitement 3 156 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Médinoc
Expert éminent sénior https://www.developpez.com
Le 27/02/2026 à 11:00
son créateur dit vouloir « libérer » les étudiants de la « corvée académique »
Un bon moyen de les libérer aussi de l'emploi, je dirais.
Dès qu'un employeur se rendra compte qu'il a engagé une IA et un intermédiaire, il gardera l'IA et virera l'intermédiaire...
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 24/02/2026 à 18:22


Citation Envoyé par kain_tn Voir le message
Hahahaha! Je ne savais pas que les deux étaient compatibles! Ah ouais, il y a du niveau. Je vois qu'on a affaire à une sacrée truffe!
Truffe ou pas, voici encore un signal fort disant qu'il faut être extrêmement prudent avec un outil qui n'est pas au point. J'y vois un parallèle avec les voitures autonomes dont on nous rabâche les oreilles, alors que 10 ans après les "débuts", c'est toujours une chimère lointaine.

Un outil dangereux, ne devrait être utilisé que par des professionnels. L'utiliser partout et par n'importe qui, ne peut amener que des désastres. Je sais utiliser un marteau pour enfoncer un clou, mais il ne me viendrait pas à l'idée de me prendre pour un bûcheron et d'utiliser une grosse tronçonneuse pour abattre un arbre, qui risquerait fort de me retomber sur la tronche...

BàV et Peace & Love.
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 18:36
Citation Envoyé par OuftiBoy Voir le message


Truffe ou pas, voici encore un signal fort disant qu'il faut être extrêmement prudent avec un outil qui n'est pas au point. J'y vois un parallèle avec les voitures autonomes dont on nous rabâche les oreilles, alors que 10 ans après les "débuts", c'est toujours une chimère lointaine.

Un outil dangereux, ne devrait être utilisé que par des professionnels. L'utiliser partout et par n'importe qui, ne peut amener que des désastres. Je sais utiliser un marteau pour enfoncer un clou, mais il ne me viendrait pas à l'idée de me prendre pour un bûcheron et d'utiliser une grosse tronçonneuse pour abattre un arbre, qui risquerait fort de me retomber sur la tronche...

BàV et Peace & Love.
Entièrement d'accord.

Je réagissais sur le baratin du genre "il a compris", "il s'est excusé" et autre niaiseries qui montrent que cette responsable sécurité et IA ne comprend rien.
4  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 27/02/2026 à 10:13
Quel naze.
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 17:59
Citation Envoyé par Jade Emy Voir le message
[B]Summer Yue, responsable de la sécurité et de l'alignement de l'IA chez Meta

[...]

Quel est votre avis sur le sujet ?
Hahahaha! Je ne savais pas que les deux étaient compatibles!

À quand un responsable de la QA ET du Vibe-Coding chez Meta?

Citation Envoyé par Jade Emy Voir le message
[...]Après avoir supprimé plus de 200 e-mails, le chatbot a apparemment repris ses esprits. Il a alors réalisé son erreur et s'est excusé auprès de Yue. Il a reconnu avoir enfreint les instructions.[...]
Ah ouais, il y a du niveau.
Je vois qu'on a affaire à une sacrée truffe!
2  0 
Avatar de archqt
Membre émérite https://www.developpez.com
Le 03/03/2026 à 17:31
Il faudra encore des profs humain, je pense pour les écoles maternelles/primaires en attendant que les robots humanoides arrivent en masse. Pour le reste, je pense qu'un prof aura le rôle d'un super viseur et gerera a distance des centaines d'éleeves.
Pour les controle, il faudra louer une salle des fetes communale par exemple et faire les tests avec le style et un papier ou sur un ordinateur dédié aux examens dans la salle surveillé par le prof.
Ou même pas besoin d'un prof fonctionnaire, je sais qu'en france dans les universités c'est souvent des retraités qui sont recruté dans les écoles comme surveillant.

Donc un prof fonctionnaire pour supervisé à distance 500 élèves par exemple, y'a toujours 0.1% de problèmes/questions que l'ia pourra pas résoudre
la surveillance des examens se fera avec des contrats contractuelles par des retraités
Tu vises trop petit, pourquoi pas un prof, et des centaines de milliers d'amphi en France, comme cela plus qu'un seul salaire de prof, et on prévoit un remplaçant en cas de maladie. Et on fait cela pour chaque matière et chaque niveau.

Par contre je te paries un truc, ceux qui ont des parents aisés payeront des cours particuliers (et pas une IA) à leur enfants.

Et après pareil avec les ingénieurs, une IA pour tout faire et 2/3 ingénieurs au lieu de 100 pour superviser tout cela.

Fin de troll
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 27/02/2026 à 10:57
Quasi toutes les études démontre que les étudiants apprennent mieux et plus vite chez eux avec une ia qu'un humain prof dans une école.

le système éducatif va devoir se réinventer, je ne sais pas si en 2025 c'est encore pertinent de payer autant de profs et des locaux.
Il faudra encore des profs humain, je pense pour les écoles maternelles/primaires en attendant que les robots humanoides arrivent en masse. Pour le reste, je pense qu'un prof aura le rôle d'un super viseur et gerera a distance des centaines d'éleeves.
Pour les controle, il faudra louer une salle des fetes communale par exemple et faire les tests avec le style et un papier ou sur un ordinateur dédié aux examens dans la salle surveillé par le prof.
Ou même pas besoin d'un prof fonctionnaire, je sais qu'en france dans les universités c'est souvent des retraités qui sont recruté dans les écoles comme surveillant.

Donc un prof fonctionnaire pour supervisé à distance 500 élèves par exemple, y'a toujours 0.1% de problèmes/questions que l'ia pourra pas résoudre
la surveillance des examens se fera avec des contrats contractuelles par des retraités
la corrections des copies se fera par ia, les contestations pourront être faite et la copie sera examiné par des prestataires offshorisé
On pourrait arriver très vite en france par exemple grâce à l'ia a atteindre le podium du classement pisa avec un cout divisé par 100.

Avant de fustiger contre mon commentaire, je vous présente mon expérience d’étudiant que j'avais en école d'ingé:
Je me souvient des cours magistraux, une centaine d'étudiant dont moi qui écoutions un "mur" parler pendant 1h. C’était chiant, soporifique et inutile, au delà de 20 minutes tous le monde dormait quasiment.
J'avais un plan cul en fac de médecine, elle m'a dit que l’amphi était trop petit, il ont ouvert un autre amphi avec un écran géant montrant le cours dans l'autre salle en direct. 3 mois avant le concours d'ailleurs des margoulin ont cassé le video projecteurs, pour empêcher la moitié d’accéder au savoirs. Pour avoir une chance de réussir le concours il fallait donc se lever à 5h du mat et attendre devant l’amphi que les portes s'ouvre

Mes 5ans d'études aurait peut être été meilleurs avec ia et surtout bien moins cher pour le pays. Il faut néanmoins une ia adapté, c'est a dire qui ne flatte pas l'étudiant et ne l'aide pas trop.
En code claude/chatgpt/gemini on se gros défaut d’être trop gentil et de ne pas me dire que je vais me planter/que mon idée c'est de la merde. L'ia est très mauvaise pour évaluer une idée de business par exemple ou pour évaluer ces chances en médecine, dans le cas d'un cancer y'a toujours un espoirs avec elle incapable d'oser dire en face que tu va crever dans 3 mois.
Et toujours à vouloirs trop m'aider, je dois toujours insisté pour qu'elle me donne pas la réponse ou d'indice, c'est pas bon pour le cerveaux ça.

l'ia est un outil en plus, la vérité c'est que les profs ne servent plus à rien depuis internet, j'ai récemment fait des cours d'ia de Stanford. J'ai eu les cours en ligne et j'ai juste payé 150$ pour passer et valider la certif. 150$ pour valider une matière c'est pas cher payé quand on y pense.
Bien sur il faut derrière des étudiants qui savent se gérer seul, mais d'un coté, le bac devrait être une barrière entre ceux qui savent et ceux qui ne savent pas être autonome.
1  6