IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les outils d'IA générative ont augmenté les attaques d'ingénierie sociale de 135 % en 2023
82 % des employés ont déclaré être inquiets du niveau de réalisme des escroqueries, selon Darktrace

Le , par Anthony

67PARTAGES

2  0 
Les images créées à l'aide de l'IA générative ont commencé à être utilisées dans des campagnes d'escroquerie, et l'ingénierie sociale est un domaine en particulier où elle est utilisée à bon escient. Selon les données que vient de publier Darktrace, les attaques d'ingénierie sociale utilisant l'IA générative ont augmenté de 135 % jusqu'à présent. Les acteurs malveillants peuvent utiliser l'IA générative telle que ChatGPT et Midjourney pour rendre leurs campagnes d'ingénierie sociale plus crédibles qu'elles ne l'auraient été autrement.

Les employés commencent à s'inquiéter de plus en plus des implications. 82 % d'entre eux ont déclaré qu'ils s'inquiétaient de la façon dont les escroqueries pouvaient commencer à paraître réalistes, car cela pourrait potentiellement faire en sorte qu'un plus grand nombre d'utilisateurs en deviennent la proie.

Cette augmentation s'est produite en l'espace d'un seul mois, entre janvier et février. ChatGPT a été qualifié de révolutionnaire, mais malgré cela, sa capacité à faciliter les actions malveillantes doit également être prise en compte.

Les courriels malveillants se multiplient et les victimes potentielles ont de plus en plus de mal à en discerner l'origine. Les acteurs malveillants pouvaient souvent être repérés grâce à leur mauvais anglais, mais ChatGPT s'est débarrassé de ces indices évidents.

L'ajout d'une complexité linguistique considérable couplée à la facilité d'accès aux plateformes d'IA générative constitue une véritable tempête. Les entreprises telles que OpenAI doivent prendre des mesures pour s'assurer que ces formes d'utilisation malveillante puissent être atténuées.

Toutefois, les défis liés à la prévention des utilisations malveillantes sont nombreux et variés. Il faudra travailler davantage pour comprendre pleinement la manière dont ChatGPT et d'autres plateformes d'IA générative sont utilisées avant de pouvoir proposer des solutions concrètes.

En attendant, les utilisateurs doivent rester vigilants lorsqu'ils interagissent avec du contenu écrit. Si un courriel vous demande de cliquer sur un lien et d'entrer vos données de connexion, il y a de fortes chances qu'il s'agisse d'une escroquerie ou d'une tentative d'hameçonnage.


Source : Darktrace

Et vous ?

Quel est votre avis sur le sujet ?

Quelle pertinence accordez-vous aux résultats de cette étude de Darktrace ?

Pensez-vous que les entreprises à l'instar d'OpenAI devraient assumer une part des responsabilités pour l'utilisation malveillante de leurs outils d'IA ?

Voir aussi

Les nouvelles attaques d'ingénierie sociale augmentent de 135 % grâce à l'IA générative, d'après une nouvelle étude de la société de cybersécurité Darktrace

L'ingénierie sociale reste la principale menace pour les entreprises, en l'occurrence sur les appareils utilisés sur le lieu de travail moderne, d'après le dernier rapport de Jamf

Les cybercriminels gagnent plus de 3 milliards de dollars par an en se servant de l'ingénierie sociale, selon un rapport

Une erreur dans cette actualité ? Signalez-nous-la !