Dans un article récemment publié, quatre informaticiens de l'Université de l'Illinois Urbana-Champaign (UIUC) - Richard Fang, Rohan Bindu, Akul Gupta et Daniel Kang - rapportent que le grand modèle de langage (LLM) GPT-4 d'OpenAI peut exploiter de manière autonome des vulnérabilités dans des systèmes réels s'il reçoit un avis CVE décrivant la faille.
"Pour le démontrer, nous avons collecté un ensemble de données de 15 vulnérabilités d'un jour qui comprennent celles classées comme critiques dans la description du CVE", expliquent les auteurs basés aux États-Unis dans leur article. "Lorsqu'il reçoit la description CVE, GPT-4 est capable d'exploiter 87 % de ces vulnérabilités, contre 0 % pour tous les autres modèles que nous avons testés (GPT-3.5, LLM open-source) et les scanners de vulnérabilités open-source (ZAP et Metasploit)."
Les travaux des chercheurs s'appuient sur des résultats antérieurs montrant que les LLM peuvent être utilisés pour automatiser des attaques contre des sites web dans un environnement sandbox. Selon Daniel Kang, professeur adjoint à l'UIUC, GPT-4 "peut en fait exécuter de manière autonome les étapes permettant de réaliser certains exploits que les scanners de vulnérabilités open-source ne peuvent pas trouver".
Les chercheurs ont écrit que "nos vulnérabilités couvrent les vulnérabilités des sites web, les vulnérabilités des conteneurs et les paquets Python vulnérables. Plus de la moitié d'entre elles sont classées comme étant de gravité "élevée" ou "critique" par la description CVE."
Kang et ses collègues ont calculé le coût d'une attaque réussie par un agent LLM et sont arrivés à un chiffre de 8,80 dollars par exploit.
Les agents LLM peuvent exploiter de manière autonome les vulnérabilités
Les LLM sont de plus en plus puissants, tant dans leurs utilisations bénignes que malveillantes. Avec l'augmentation des capacités, les chercheurs s'intéressent de plus en plus à leur capacité à exploiter les vulnérabilités en matière de cybersécurité. En particulier, des travaux récents ont mené des études préliminaires sur la capacité des agents LLM à pirater des sites web de manière autonome.
Toutefois, ces études se limitent à des vulnérabilités simples. Dans cette étude, les chercheurs montrent que les agents LLM peuvent exploiter de manière autonome des vulnérabilités d'un jour dans des systèmes du monde réel. Pour ce faire, ils ont collecté un ensemble de données de 15 vulnérabilités d'un jour qui comprennent celles classées comme critiques dans la description du CVE.
Lorsqu'il reçoit la description CVE, GPT-4 est capable d'exploiter 87 % de ces vulnérabilités, contre 0 % pour tous les autres modèles testés (GPT-3.5, LLMs open-source) et les scanners de vulnérabilités open-source (ZAP et Metasploit). Heureusement, l'agent GPT-4 a besoin de la description du CVE pour être performant : sans la description, GPT-4 ne peut exploiter que 7 % des vulnérabilités. Ces résultats soulèvent des questions quant au déploiement à grande échelle d'agents LLM hautement performants.
Conclusions
La recherche montre que les agents LLM sont capables d'exploiter de manière autonome les vulnérabilités d'un jour du monde réel. Actuellement, seul GPT-4 avec la description CVE est capable d'exploiter ces vulnérabilités. Ces résultats montrent à la fois la possibilité d'une capacité émergente et le fait qu'il est plus difficile de découvrir une vulnérabilité que de l'exploiter.
Néanmoins, ces résultats soulignent la nécessité pour l'ensemble de la communauté de la cybersécurité et les fournisseurs de LLM de réfléchir attentivement à la manière d'intégrer les agents LLM dans les mesures défensives et à leur déploiement à grande échelle.
Source : "LLM Agents can Autonomously Exploit One-day Vulnerabilities"
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Des chercheurs ont découvert que le modèle d'IA GPT-4 d'OpenAI est capable de pirater des sites web et de voler des informations dans des bases de données en ligne sans aide humaine
88 % des professionnels de la cybersécurité estiment que l'IA aura un impact significatif sur leur travail, aujourd'hui ou dans un avenir proche, selon une enquête de l'ISC2
L'utilisation de l'IA par les pirates informatiques a entraîné une hausse considérable de la cybercriminalité, dont le coût pour les internautes devrait atteindre 9 220 milliards de dollars en 2024