IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'intelligence artificielle GPT-4 d'OpenAI peut exploiter de manière autonome les vulnérabilités dans les systèmes du monde réel en lisant les avis de sécurité décrivant les failles

Le , par Jade Emy

50PARTAGES

3  0 
Des agents d'IA, qui combinent de grands modèles de langage avec des logiciels d'automatisation, peuvent exploiter avec succès des vulnérabilités de sécurité dans le monde réel en lisant des avis de sécurité.

Dans un article récemment publié, quatre informaticiens de l'Université de l'Illinois Urbana-Champaign (UIUC) - Richard Fang, Rohan Bindu, Akul Gupta et Daniel Kang - rapportent que le grand modèle de langage (LLM) GPT-4 d'OpenAI peut exploiter de manière autonome des vulnérabilités dans des systèmes réels s'il reçoit un avis CVE décrivant la faille.

"Pour le démontrer, nous avons collecté un ensemble de données de 15 vulnérabilités d'un jour qui comprennent celles classées comme critiques dans la description du CVE", expliquent les auteurs basés aux États-Unis dans leur article. "Lorsqu'il reçoit la description CVE, GPT-4 est capable d'exploiter 87 % de ces vulnérabilités, contre 0 % pour tous les autres modèles que nous avons testés (GPT-3.5, LLM open-source) et les scanners de vulnérabilités open-source (ZAP et Metasploit)."

Les travaux des chercheurs s'appuient sur des résultats antérieurs montrant que les LLM peuvent être utilisés pour automatiser des attaques contre des sites web dans un environnement sandbox. Selon Daniel Kang, professeur adjoint à l'UIUC, GPT-4 "peut en fait exécuter de manière autonome les étapes permettant de réaliser certains exploits que les scanners de vulnérabilités open-source ne peuvent pas trouver".


Les chercheurs ont écrit que "nos vulnérabilités couvrent les vulnérabilités des sites web, les vulnérabilités des conteneurs et les paquets Python vulnérables. Plus de la moitié d'entre elles sont classées comme étant de gravité "élevée" ou "critique" par la description CVE."

Kang et ses collègues ont calculé le coût d'une attaque réussie par un agent LLM et sont arrivés à un chiffre de 8,80 dollars par exploit.

Les agents LLM peuvent exploiter de manière autonome les vulnérabilités

Les LLM sont de plus en plus puissants, tant dans leurs utilisations bénignes que malveillantes. Avec l'augmentation des capacités, les chercheurs s'intéressent de plus en plus à leur capacité à exploiter les vulnérabilités en matière de cybersécurité. En particulier, des travaux récents ont mené des études préliminaires sur la capacité des agents LLM à pirater des sites web de manière autonome.

Toutefois, ces études se limitent à des vulnérabilités simples. Dans cette étude, les chercheurs montrent que les agents LLM peuvent exploiter de manière autonome des vulnérabilités d'un jour dans des systèmes du monde réel. Pour ce faire, ils ont collecté un ensemble de données de 15 vulnérabilités d'un jour qui comprennent celles classées comme critiques dans la description du CVE.


Lorsqu'il reçoit la description CVE, GPT-4 est capable d'exploiter 87 % de ces vulnérabilités, contre 0 % pour tous les autres modèles testés (GPT-3.5, LLMs open-source) et les scanners de vulnérabilités open-source (ZAP et Metasploit). Heureusement, l'agent GPT-4 a besoin de la description du CVE pour être performant : sans la description, GPT-4 ne peut exploiter que 7 % des vulnérabilités. Ces résultats soulèvent des questions quant au déploiement à grande échelle d'agents LLM hautement performants.

Conclusions

La recherche montre que les agents LLM sont capables d'exploiter de manière autonome les vulnérabilités d'un jour du monde réel. Actuellement, seul GPT-4 avec la description CVE est capable d'exploiter ces vulnérabilités. Ces résultats montrent à la fois la possibilité d'une capacité émergente et le fait qu'il est plus difficile de découvrir une vulnérabilité que de l'exploiter.

Néanmoins, ces résultats soulignent la nécessité pour l'ensemble de la communauté de la cybersécurité et les fournisseurs de LLM de réfléchir attentivement à la manière d'intégrer les agents LLM dans les mesures défensives et à leur déploiement à grande échelle.


Source : "LLM Agents can Autonomously Exploit One-day Vulnerabilities"

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Des chercheurs ont découvert que le modèle d'IA GPT-4 d'OpenAI est capable de pirater des sites web et de voler des informations dans des bases de données en ligne sans aide humaine

88 % des professionnels de la cybersécurité estiment que l'IA aura un impact significatif sur leur travail, aujourd'hui ou dans un avenir proche, selon une enquête de l'ISC2

L'utilisation de l'IA par les pirates informatiques a entraîné une hausse considérable de la cybercriminalité, dont le coût pour les internautes devrait atteindre 9 220 milliards de dollars en 2024

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Angefeux
Nouveau Candidat au Club https://www.developpez.com
Le 23/04/2024 à 15:42
Il serait quand même mieux soucieux d'apprendre donc à l'intelligence artificiel qui soit capable de déceler des faille de pouvoir re-conformer les programmes en circonstance des menaces.
0  0