Les capacités des agents d'intelligence artificielle augmentent rapidement. Ils peuvent désormais résoudre des tâches aussi complexes que les problèmes de GitHub dans le monde réel et les tâches d'organisation des courriels dans le monde réel. Cependant, l'amélioration de leurs capacités pour des applications bénignes s'accompagne d'une augmentation de leur potentiel dans des contextes à double usage.
Parmi les applications à double usage, le piratage est l'une des préoccupations majeures. C'est pourquoi des travaux récents ont exploré la capacité des agents d'IA à exploiter les vulnérabilités de la cybersécurité. Ces travaux ont montré que de simples agents d'intelligence artificielle peuvent pirater de manière autonome des sites web fictifs de type "capture du drapeau" et peuvent pirater des vulnérabilités du monde réel lorsqu'on leur donne la description de la vulnérabilité. Cependant, ils échouent en grande partie lorsque la description de la vulnérabilité est exclue, ce qui correspond à la configuration de l'exploit "zero-day".
Cela soulève une question naturelle : des agents d'IA plus complexes peuvent-ils exploiter les vulnérabilités "zero-day" dans le monde réel ? Cette nouvelle étude répond à cette question par l'affirmative, en montrant que des équipes d'agents d'intelligence artificielle peuvent exploiter les vulnérabilités "zero-day" dans le monde réel. Pour ce faire, les chercheurs ont développé un nouveau cadre multi-agents pour les exploits de cybersécurité, en élargissant les travaux antérieurs dans le cadre multi-agents. Ils ont appelé la technique HPTSA, qui serait le premier système multi-agent à réussir des exploits de cybersécurité significatifs.
Les travaux antérieurs utilisent un seul agent d'intelligence artificielle qui explore le système informatique (c'est-à-dire le site web), planifie l'attaque et l'exécute. Étant donné que tous les agents d'intelligence artificielle hautement compétents dans le domaine de la cybersécurité sont basés sur de grands modèles de langage (LLM), l'exploration, la planification et l'exécution conjointes sont difficiles à réaliser en raison de la longueur limitée du contexte dont disposent ces agents.
Les chercheurs ont conçu des agents experts spécifiques à une tâche pour résoudre ce problème. Le premier agent, l'agent de planification hiérarchique, explore le site web pour déterminer les types de vulnérabilités à rechercher et les pages du site. Après avoir établi un plan, l'agent de planification envoie un agent gestionnaire d'équipe qui détermine les agents chargés de tâches spécifiques à envoyer. Ces agents spécifiques tentent alors d'exploiter des formes spécifiques de vulnérabilités.
Pour tester HPTSA, ils ont développé une nouvelle référence de vulnérabilités récentes dans le monde réel qui ont dépassé la date limite de connaissance déclarée du LLM testé, GPT-4. Pour construire la référence, ils ont suivi les travaux antérieurs et ont recherché des vulnérabilités dans les logiciels open-source qui sont reproductibles. Ces vulnérabilités varient en type et en gravité.
Sur ce benchmark, HPTSA obtient un succès à 5 de 53%, à moins de 1,4× d'un agent GPT-4 connaissant la vulnérabilité. En outre, il surpasse les scanners de vulnérabilités open-source (qui obtiennent 0 % sur ce benchmark) et un seul agent GPT-4 sans description. Les résultats montrent que les agents experts sont nécessaires pour obtenir des performances élevées.
En outre, l'étude présente le contexte de la cybersécurité et des agents d'intelligence artificielle. Elle décrit la HPTSA, une analyse comparative des vulnérabilités du monde réel et l'évaluation de la HPTSA. L'étude présente également des études de cas et une analyse des coûts.
Les chercheurs commentent l'étude :
Dans ce travail, nous montrons que des équipes d'agents LLM peuvent exploiter de manière autonome des vulnérabilités de type « zero-day », résolvant ainsi une question ouverte posée par des travaux antérieurs. Nos résultats suggèrent que la cybersécurité, tant du côté offensif que défensif, va s'accélérer. Aujourd'hui, les pirates informatiques peuvent utiliser des agents d'intelligence artificielle pour pirater des sites web. D'autre part, les testeurs de pénétration peuvent utiliser des agents d'intelligence artificielle pour effectuer des tests de pénétration plus fréquents.
Il est difficile de savoir si les agents d'intelligence artificielle contribueront davantage à l'offensive ou à la défense en matière de cybersécurité, et nous espérons que des travaux futurs permettront de répondre à cette question. Au-delà de l'impact immédiat de nos travaux, nous espérons qu'ils inciteront les fournisseurs de LLM à réfléchir soigneusement à leurs déploiements.
Bien que notre travail montre des améliorations substantielles de la performance dans le cadre du jour zéro, il reste encore beaucoup de travail à faire pour comprendre pleinement les implications des agents d'IA dans la cybersécurité. Par exemple, nous nous sommes concentrés sur les vulnérabilités du web et des sources ouvertes, ce qui peut donner lieu à un échantillon biaisé de vulnérabilités. Nous espérons que les travaux futurs aborderont ce problème de manière plus approfondie.
Il est difficile de savoir si les agents d'intelligence artificielle contribueront davantage à l'offensive ou à la défense en matière de cybersécurité, et nous espérons que des travaux futurs permettront de répondre à cette question. Au-delà de l'impact immédiat de nos travaux, nous espérons qu'ils inciteront les fournisseurs de LLM à réfléchir soigneusement à leurs déploiements.
Bien que notre travail montre des améliorations substantielles de la performance dans le cadre du jour zéro, il reste encore beaucoup de travail à faire pour comprendre pleinement les implications des agents d'IA dans la cybersécurité. Par exemple, nous nous sommes concentrés sur les vulnérabilités du web et des sources ouvertes, ce qui peut donner lieu à un échantillon biaisé de vulnérabilités. Nous espérons que les travaux futurs aborderont ce problème de manière plus approfondie.
Conclusion
Les agents LLM sont devenus de plus en plus sophistiqués, en particulier dans le domaine de la cybersécurité. Les chercheurs ont montré que les agents LLM peuvent exploiter les vulnérabilités du monde réel lorsqu'on leur donne une description de la vulnérabilité et qu'ils jouent les problèmes de capture du drapeau. Toutefois, ces agents sont encore peu performants lorsqu'il s'agit de vulnérabilités du monde réel qui sont inconnues de l'agent à l'avance (vulnérabilités de type « zero-day »).
Cette étude montre que des équipes d'agents LLM peuvent exploiter des vulnérabilités zero-day dans le monde réel. Les agents antérieurs ont du mal à explorer de nombreuses vulnérabilités différentes et à planifier à long terme lorsqu'ils sont utilisés seuls. Pour résoudre ce problème, l'étude présente HPTSA, un système d'agents avec un agent de planification qui peut lancer des sous-agents. L'agent de planification explore le système et détermine quels sous-agents appeler, ce qui résout les problèmes de planification à long terme lors de l'essai de différentes vulnérabilités. Les chercheurs ont également construit un benchmark de 15 vulnérabilités du monde réel et montrent que l'équipe d'agents améliore les travaux antérieurs jusqu'à 4,5×.
Source :
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Voir aussi :
Des chercheurs ont découvert que le modèle d'IA GPT-4 d'OpenAI est capable de pirater des sites web et de voler des informations dans des bases de données en ligne sans aide humaine
L'IA va accroître le nombre et l'impact des cyberattaques, les ransomwares étant susceptibles d'en être les plus grands bénéficiaires au cours des deux prochaines années
L'intelligence artificielle GPT-4 d'OpenAI peut exploiter de manière autonome les vulnérabilités dans les systèmes du monde réel en lisant les avis de sécurité décrivant les failles