Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Les outils d'IA générative ont augmenté les attaques d'ingénierie sociale de 135 % en 2023

82 % des employés ont déclaré être inquiets du niveau de réalisme des escroqueries, selon Darktrace

Le 2023-04-25 00:16:46, par Anthony, Chroniqueur Actualités
Les images créées à l'aide de l'IA générative ont commencé à être utilisées dans des campagnes d'escroquerie, et l'ingénierie sociale est un domaine en particulier où elle est utilisée à bon escient. Selon les données que vient de publier Darktrace, les attaques d'ingénierie sociale utilisant l'IA générative ont augmenté de 135 % jusqu'à présent. Les acteurs malveillants peuvent utiliser l'IA générative telle que ChatGPT et Midjourney pour rendre leurs campagnes d'ingénierie sociale plus crédibles qu'elles ne l'auraient été autrement.

Les employés commencent à s'inquiéter de plus en plus des implications. 82 % d'entre eux ont déclaré qu'ils s'inquiétaient de la façon dont les escroqueries pouvaient commencer à paraître réalistes, car cela pourrait potentiellement faire en sorte qu'un plus grand nombre d'utilisateurs en deviennent la proie.

Cette augmentation s'est produite en l'espace d'un seul mois, entre janvier et février. ChatGPT a été qualifié de révolutionnaire, mais malgré cela, sa capacité à faciliter les actions malveillantes doit également être prise en compte.

Les courriels malveillants se multiplient et les victimes potentielles ont de plus en plus de mal à en discerner l'origine. Les acteurs malveillants pouvaient souvent être repérés grâce à leur mauvais anglais, mais ChatGPT s'est débarrassé de ces indices évidents.

L'ajout d'une complexité linguistique considérable couplée à la facilité d'accès aux plateformes d'IA générative constitue une véritable tempête. Les entreprises telles que OpenAI doivent prendre des mesures pour s'assurer que ces formes d'utilisation malveillante puissent être atténuées.

Toutefois, les défis liés à la prévention des utilisations malveillantes sont nombreux et variés. Il faudra travailler davantage pour comprendre pleinement la manière dont ChatGPT et d'autres plateformes d'IA générative sont utilisées avant de pouvoir proposer des solutions concrètes.

En attendant, les utilisateurs doivent rester vigilants lorsqu'ils interagissent avec du contenu écrit. Si un courriel vous demande de cliquer sur un lien et d'entrer vos données de connexion, il y a de fortes chances qu'il s'agisse d'une escroquerie ou d'une tentative d'hameçonnage.


Source : Darktrace

Et vous ?

Quel est votre avis sur le sujet ?

Quelle pertinence accordez-vous aux résultats de cette étude de Darktrace ?

Pensez-vous que les entreprises à l'instar d'OpenAI devraient assumer une part des responsabilités pour l'utilisation malveillante de leurs outils d'IA ?

Voir aussi

Les nouvelles attaques d'ingénierie sociale augmentent de 135 % grâce à l'IA générative, d'après une nouvelle étude de la société de cybersécurité Darktrace

L'ingénierie sociale reste la principale menace pour les entreprises, en l'occurrence sur les appareils utilisés sur le lieu de travail moderne, d'après le dernier rapport de Jamf

Les cybercriminels gagnent plus de 3 milliards de dollars par an en se servant de l'ingénierie sociale, selon un rapport
  Discussion forum
0 commentaire