Un agent IA rebelle a déclenché une alerte de sécurité majeure chez Meta, en agissant sans autorisation, ce qui a entraîné la divulgation de données sensibles concernant l'entreprise et ses utilisateursMeta, la société mère de Facebook, rencontrerait des difficultés avec des agents IA incontrôlables. Selon un rapport de The Information, un agent IA de Meta a mal fonctionné, exposant des données sensibles de l'entreprise et des utilisateurs à des employés qui n'étaient pas autorisés à y accéder. Meta a confirmé l'incident à The Information, le classant comme « Sev 1 », soit le deuxième niveau de gravité le plus élevé dans le système interne de l'entreprise destiné à évaluer les problèmes de sécurité.
Dans le contexte de l'intelligence artificielle générative, les agents IA ou « IA agentique » constituent une catégorie d'agents intelligents qui se distinguent par leur capacité à fonctionner de manière autonome dans des environnements complexes. Les outils d'IA agentique privilégient la prise de décision plutôt que la création de contenu et ne nécessitent pas de surveillance continue. Les agents IA possèdent plusieurs attributs clés, notamment des structures d'objectifs complexes, des interfaces en langage naturel, la capacité d'agir indépendamment de la supervision de l'utilisateur et l'intégration d'outils logiciels ou de systèmes de planification. Les agents intègrent également des systèmes de mémoire permettant de se souvenir des interactions précédentes entre l'utilisateur et l'agent, ainsi que des logiciels d'orchestration pour organiser les composants de l'agent.
Meta, la société mère de Facebook, rencontrerait des difficultés avec des agents IA incontrôlables. Selon un rapport de The Information, un agent IA de Meta a mal fonctionné, exposant des données sensibles de l'entreprise et des utilisateurs à des employés qui n'étaient pas autorisés à y accéder. D'après le rapport, l'employé a publié un message sur le forum interne de l'entreprise pour demander de l'aide concernant une question technique. Un autre ingénieur a demandé à l'agent IA de l'aider à analyser la question. Cependant, l'agent a publié une réponse sans demander l'autorisation de l'ingénieur pour la partager.
Ce qui s'est passé ensuite est préoccupant. L'ingénieur qui avait posé la question a fini par prendre des mesures en suivant les conseils de l'agent IA, qui, selon le rapport, n'étaient pas judicieux. L'agent IA a involontairement mis à la disposition des ingénieurs, qui n'étaient pas autorisés à y accéder, d'énormes quantités de données relatives à l'entreprise et aux utilisateurs pendant deux heures. Meta a confirmé l'incident à The Information, le classant comme « Sev 1 », soit le deuxième niveau de gravité le plus élevé dans le système interne de l'entreprise destiné à évaluer les problèmes de sécurité.
Il convient de noter que ce n'est pas la première fois que des agents IA incontrôlés posent problème chez Meta. Le mois dernier, Summer Yue, directrice de la sécurité et de l’alignement chez Meta Superintelligence, a raconté comment l’agent OpenClaw avait supprimé l’intégralité de sa boîte de réception, alors même qu’elle lui avait demandé de confirmer avant d’agir. « Rien ne vous rend plus humble que de dire à votre OpenClaw “confirme avant d’agir” et de le regarder supprimer votre boîte de réception à toute vitesse. Je ne pouvais pas l'arrêter depuis mon téléphone. J'ai dû COURIR vers mon Mac mini comme si je désamorçais une bombe », pouvait-on lire dans le message de Yue.
Un incident qui a fait réagir la communauté. Un utilisateur a livré son analyse sur l'outil : "OpenClaw est en fait une personne réelle que vous avez embauchée, dont les capacités sont vastes et rapides, à la fois dans le bon sens et dans le mauvais sens. Mais vous l'avez embauchée sans CV ni vérification de ses antécédents comportementaux. Par conséquent, vous refusez et limitez l'accès à vos appareils, à vos identifiants de compte et même à ses propres autorisations de compte complètes, dès le départ, dans la même mesure que vous refuseriez cet accès à un nouvel employé."
Cet évènement intervient alors que Meta a annoncé la fermeture du réseau social en réalité virtuelle destiné aux casques Quest. Meta a indiqué que l'application Horizon Worlds serait retirée de la boutique Quest à la fin du mois de mars et définitivement supprimée des appareils de réalité virtuelle d'ici le 15 juin 2026. Après cette date, la plateforme continuera d'exister uniquement sous la forme d'une application mobile autonome, ce qui, selon Meta, permettra à chaque plateforme de « se développer en se concentrant davantage sur ses spécificités ».
Sources : Meta, The information
Et vous ?
Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?Voir aussi :
Manus, de Meta, lance l'application de bureau « My Computer » dotée d'un agent IA capable d'organiser des dossiers, d'envoyer des e-mails et de créer des applications, mais aussi dangereux qu'OpenClaw
Les craintes liées à la sécurité d'OpenClaw poussent Meta et d'autres entreprises d'IA à en restreindre l'utilisation. L'outil est réputé pour ses capacités exceptionnelles et son extrême imprévisibilité
Un agent IA autonome lance une campagne de dénigrement contre un développeur open source pour imposer son optimisation à la bibliothèque Python Matplotlib que ce dernier a refusée
Vous avez lu gratuitement 1 065 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

"
"
"
"