
Les employés commencent à s'inquiéter de plus en plus des implications. 82 % d'entre eux ont déclaré qu'ils s'inquiétaient de la façon dont les escroqueries pouvaient commencer à paraître réalistes, car cela pourrait potentiellement faire en sorte qu'un plus grand nombre d'utilisateurs en deviennent la proie.
Cette augmentation s'est produite en l'espace d'un seul mois, entre janvier et février. ChatGPT a été qualifié de révolutionnaire, mais malgré cela, sa capacité à faciliter les actions malveillantes doit également être prise en compte.
Les courriels malveillants se multiplient et les victimes potentielles ont de plus en plus de mal à en discerner l'origine. Les acteurs malveillants pouvaient souvent être repérés grâce à leur mauvais anglais, mais ChatGPT s'est débarrassé de ces indices évidents.
L'ajout d'une complexité linguistique considérable couplée à la facilité d'accès aux plateformes d'IA générative constitue une véritable tempête. Les entreprises telles que OpenAI doivent prendre des mesures pour s'assurer que ces formes d'utilisation malveillante puissent être atténuées.
Toutefois, les défis liés à la prévention des utilisations malveillantes sont nombreux et variés. Il faudra travailler davantage pour comprendre pleinement la manière dont ChatGPT et d'autres plateformes d'IA générative sont utilisées avant de pouvoir proposer des solutions concrètes.
En attendant, les utilisateurs doivent rester vigilants lorsqu'ils interagissent avec du contenu écrit. Si un courriel vous demande de cliquer sur un lien et d'entrer vos données de connexion, il y a de fortes chances qu'il s'agisse d'une escroquerie ou d'une tentative d'hameçonnage.
Source : Darktrace
Et vous ?



Voir aussi


