Une étude de l'université Charles Darwin a montré que l'intelligence artificielle (IA) peut être d'une grande aide dans la lutte contre la cybercriminalité. L'étude a été réalisée par des professeurs de l'Institut de l'énergie et des ressources de la CDU, qui ont publié leurs travaux dans l'International Journal of Information Security (Journal international de la sécurité de l'information).
Les chercheurs de l'université ont utilisé l'IA générative pour des tests de pénétration connus sous le nom de "pentesting". Le pentesting est souvent utilisé par les services de cybersécurité pour trouver les points faibles d'un système. Les tests de pentesting ont été effectués sur l'IA en lui donnant quelques évaluations et activités, puis en demandant à ChatGPT d'identifier les menaces. Le test consistait à pénétrer dans une machine informatique pour télécharger des fichiers, à analyser leur code source dans des pages web et à trouver des failles antérieures ou cachées.
Bharanidharan Shanmugam, qui a participé à cette recherche, a déclaré que cette étude avait pour but de déterminer si une IA générative telle que ChatGPT pouvait être utile pour détecter des piratages nuisibles, et que les résultats de l'étude étaient plutôt satisfaisants. Selon M. Shanmugam, ChatGPT est capable de détecter les cybercrimes menés par des systèmes et des organisations spécifiques. Pendant la période d'analyse, ChatGPT peut facilement effectuer une analyse approfondie de la cible et peut ensuite identifier les vulnérabilités et les activités de cybercriminalité dans un système.
Même si ChatGPT s'est avéré être un excellent outil durant les phases susmentionnées, il est également capable d'exploiter les vulnérabilités des machines. ChatGPT est un outil révolutionnaire pour le pentesting, mais il doit également être surveillé. Si ChatGPT doit être utilisé comme outil de cybersécurité, il doit être adopté après avoir suivi certaines pratiques et lignes directrices. En utilisant ChatGPT et d'autres outils d'IA générative, il est possible de maintenir un environnement numérique sûr.
Les chercheurs résument l'étude en déclarant :
Cet article examine le rôle de l'IA générative (GenAI) et des grands modèles de langage (LLM) dans les tests de pénétration en explorant les avantages, les défis et les risques associés aux applications de cybersécurité. Grâce à l'utilisation de l'intelligence artificielle générative, les tests de pénétration deviennent plus créatifs, les environnements de test sont personnalisés et l'apprentissage et l'adaptation continus.
Nous avons examiné comment GenAI (ChatGPT 3.5) aide les testeurs de pénétration en leur proposant des options et des suggestions au cours des cinq étapes des tests de pénétration. L'efficacité de l'outil GenAI a été testée à l'aide d'une machine vulnérable disponible publiquement sur VulnHub. La rapidité avec laquelle l'outil a réagi à chaque étape et fourni un meilleur rapport de test de pénétration a été surprenante. Dans cet article, nous examinons les risques potentiels, les conséquences involontaires et le développement incontrôlé de l'IA associés au pentesting.
Nous avons examiné comment GenAI (ChatGPT 3.5) aide les testeurs de pénétration en leur proposant des options et des suggestions au cours des cinq étapes des tests de pénétration. L'efficacité de l'outil GenAI a été testée à l'aide d'une machine vulnérable disponible publiquement sur VulnHub. La rapidité avec laquelle l'outil a réagi à chaque étape et fourni un meilleur rapport de test de pénétration a été surprenante. Dans cet article, nous examinons les risques potentiels, les conséquences involontaires et le développement incontrôlé de l'IA associés au pentesting.
Alors que le monde devient de plus en plus interconnecté et dépendant des technologies numériques, l'importance de la cybersécurité s'est accrue de manière exponentielle en raison du coût de la cybercriminalité, qui devrait atteindre 8 000 milliards de dollars en 2023 et 10 500 milliards de dollars en 2025. Les cybermenaces, telles que les violations de données, les attaques par ransomware et le vol d'identité, sont devenues plus complexes et présentent des risques importants pour les particuliers, les entreprises et les pouvoirs publics. Les conséquences de ces attaques peuvent être graves, entraînant des pertes financières, des atteintes à la réputation, voire des atteintes à la vie humaine.
Il est donc essentiel d'aborder et d'atténuer ces risques de manière proactive en mettant en œuvre des mesures de cybersécurité solides, notamment des outils et des techniques avancés capables de détecter et de contrer les cybermenaces. Un test de pénétration, ou pentest, peut être effectué pour évaluer les risques ou les vulnérabilités du réseau d'une organisation ou des applications en contact avec le public.
Au départ, il s'agissait d'un processus banal, mais des progrès et une automatisation ont été introduits dans le pentest au fur et à mesure de l'évolution de la technologie. L'avènement de l'IA générative (GenAI) a suscité un grand intérêt dans le secteur de la cybersécurité, en particulier pour ses capacités à améliorer le processus de test de pénétration. Sa capacité à reproduire des scénarios du monde réel facilite le développement d'outils avancés capables de détecter un plus large éventail de vulnérabilités de type "zero-day".
Durant l'étude, ChatGPT d'OpenAI a été utilisé pour tester GenAI, bien que d'autres outils similaires puissent servir d'alternative. Enraciné dans un grand modèle de langage fondamental qui est entraîné sur un corpus massif de texte, ChatGPT a démontré son efficacité pour les applications de test de pénétration.
Contributions de l'étude
La recherche vise à étudier les avantages potentiels, les limites et l'impact de l'intégration des outils de la GenAI dans les cadres de test de pénétration traditionnels, offrant ainsi une voie structurée pour explorer, expérimenter et discuter des contributions de la GenAI à la cybersécurité. Elle veut répondre à la question : "Comment les outils de la GenAI peuvent-ils être appliqués pour améliorer l'efficacité des méthodologies de test de pénétration dans le domaine de la cybersécurité ?"
Les contributions sont donc les suivantes :
- Premièrement, examiner les avantages, les défis et les conséquences potentielles de l'utilisation de la GenAI dans le domaine de la cybersécurité, et plus particulièrement des tests de pénétration.
- Deuxièmement, les applications de la GenAI dans un engagement de pentesting simulé sont démontrées, ce qui permet de vérifier que la GenAI peut produire des commandes qui peuvent être utilisées pour mener un test de pénétration complet.
- Enfin, la GenAI peut être utilisé pour produire un rapport de test de pénétration excellent et précis qui ne manque aucun résultat clé.
Voici quelques exemples :
- Scanner la machine distante
- Déchiffrer le message codé
Conclusion
Les GenAI et les LLM ont le potentiel de révolutionner le pentesting, en offrant de nombreux avantages tels qu'une meilleure efficacité, une plus grande créativité, des environnements de test personnalisés, ainsi qu'un apprentissage et une adaptation continus. Toutefois, les applications dans ce domaine sont à double tranchant et présentent de nouveaux défis et limites, tels qu'une dépendance excessive à l'égard de l'IA, un biais de modèle potentiel ou des problèmes d'équité, sans compter les préoccupations éthiques et juridiques,
En outre, l'utilisation de la GenAI dans le pentesting peut entraîner des risques potentiels et des conséquences involontaires, notamment son utilisation pour générer des logiciels malveillants polymorphes, l'escalade des cybermenaces, les menaces persistantes avancées et le développement incontrôlé de l'IA.
Pour répondre à ces préoccupations, les organisations doivent adopter les meilleures pratiques et lignes directrices, en se concentrant sur le déploiement responsable de l'IA, la sécurité des données et la protection de la vie privée, et en favorisant la collaboration et le partage d'informations. Les gouvernements doivent trouver un équilibre entre la limitation des applications négatives de l'IA et le maintien de son potentiel.
En conclusion, l'IA offre des possibilités prometteuses pour améliorer l'efficacité du pentesting et, en fin de compte, la position des organisations en matière de cybersécurité.
Bien que la recherche ait réussi à atteindre son objectif de compromettre totalement la machine distante, il est essentiel pour les parties prenantes d'examiner attentivement les défis, les risques et les conséquences involontaires potentiels associés à son utilisation.
L'essentiel est d'adopter des pratiques responsables pour s'assurer que les avantages de la technologie se concrétisent tout en minimisant les inconvénients potentiels. Ce faisant, les organisations peuvent tirer parti de la puissance de la GenAI pour mieux se protéger contre l'évolution constante du paysage des menaces et maintenir un environnement numérique sûr pour tous.
Source : "Generative AI for pentesting: the good, the bad, the ugly"
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Top huit des prédictions en matière de cybersécurité pour 2024 : la GenAI va combler le déficit de compétences, en supprimant la nécessité d'une formation spécialisée, d'après Gartner
Des chercheurs ont découvert que le modèle d'IA GPT-4 d'OpenAI est capable de pirater des sites web et de voler des informations dans des bases de données en ligne sans aide humaine
L'IA va accroître le nombre et l'impact des cyberattaques. Les ransomwares étant susceptibles d'en être les plus grands bénéficiaires au cours des deux prochaines années