IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La plupart des détecteurs d'IA sont incapables de déterminer si un courriel de phishing a été rédigé par un chatbot
D'après la plateforme de sécurité de messagerie Egress

Le , par Nancy Rey

2PARTAGES

3  0 
Le dernier rapport d'Egress sur les tendances des menaces de phishing, basé sur les données de son outil de sécurité des emails Egress Defend, révèle que près des trois quarts des détecteurs d'IA ne peuvent pas dire si un email de phishing a été écrit par un chatbot.

Parce qu'ils utilisent de grands modèles de langage (LLM), la précision de la plupart des outils de détection augmente avec la taille des échantillons, nécessitant souvent un minimum de 250 caractères pour fonctionner. Comme 44,9 % des courriels de phishing ne respectent pas la limite des 250 caractères et que 26,5 % sont inférieurs à 500 caractères, les détecteurs d'IA actuels ne fonctionnent pas de manière fiable ou ne fonctionnent pas du tout pour 71,4 % des attaques.


« Il ne fait aucun doute que les chatbots ou les grands modèles de langage abaissent la barrière d'entrée de la cybercriminalité, en permettant de créer des campagnes de phishing bien écrites et de générer des logiciels malveillants que des codeurs moins compétents ne pourraient pas produire seuls. Cependant, l'une des applications les plus préoccupantes des LLM, mais dont on parle le moins, est la reconnaissance pour des attaques très ciblées. En quelques secondes, un chatbot peut rechercher sur Internet des informations de source ouverte sur une cible choisie, qui peuvent servir de prétexte à des campagnes d'ingénierie sociale, qui sont de plus en plus courantes. On me demande souvent si le LLM change vraiment la donne, mais en fin de compte, tout dépend de la défense que vous avez mise en place. Si vous comptez sur la détection traditionnelle du périmètre qui utilise la détection basée sur la signature et la réputation, alors vous devez évaluer de toute urgence des solutions intégrées de sécurité de la messagerie dans le cloud qui ne s'appuient pas sur des bibliothèques de définitions et des vérifications de domaine pour déterminer si un e-mail est légitime ou non ! », déclare Jack Chapman, vice-président de la veille sur les menaces chez Egress.

Le rapport montre également que la proportion de courriels de phishing utilisant des techniques d'obscurcissement a augmenté de 24,4 % en 2023 pour atteindre 55,2 %. L'obscurcissement permet aux cybercriminels de dissimuler leurs attaques à certains mécanismes de détection. Egress constate que près de la moitié (47 %) des courriels de phishing qui utilisent l'obscurcissement contiennent deux couches afin d'augmenter les chances de contourner les défenses de sécurité des courriels et d'assurer la réussite de l'envoi au destinataire cible. Moins d'un tiers (31 %) n'utilisent qu'une seule technique. La contrebande de HTML s'est avérée être la technique d'obscurcissement la plus populaire, représentant 34 % des cas.

De plus en plus de courriels de phishing parviennent également à franchir le périmètre de détection traditionnel. Ainsi, bien que le volume global n'ait pas augmenté, les attaques sont de plus en plus sophistiquées et les cybercriminels utilisent une multitude de tactiques pour réussir à franchir le périmètre de sécurité des courriels. Le pourcentage d'e-mails qui passent à travers les défenses de Microsoft a augmenté de 25 % entre 2022 et 2023. De même, le pourcentage de courriels qui passent à travers les passerelles de messagerie sécurisées (secure email gateways : SEG) a augmenté de 29 % entre 2022 et 2023.

En outre, les attaques de phishing envoyées à partir de comptes compromis ont augmenté de 11 % en 2023. Les comptes compromis sont des domaines de confiance, de sorte que ces attaques échappent généralement à la détection traditionnelle du périmètre. Près de la moitié (47,7 %) des attaques de phishing que le système de détection de Microsoft n'a pas détectées ont été envoyées à partir de comptes compromis. Le type de charge utile le plus courant est constitué de liens de phishing vers des sites web (45 %), contre 35 % en 2022. Et toutes les charges utiles ont contourné la détection basée sur les signatures dans une certaine mesure.

Source : Egress

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous que les résultats de ce rapport sont pertinents ou au contraire orienté ?
Que pensez-vous de la difficulté pour détecter les textes générés par l'IA ?
Selon vous, comment peut-on détecter de manière fiable les textes générés par l'IA ?

Voir aussi :

Les détecteurs de contenu GPTZero et Turnitin rivalisent pour la suprématie de l'IA dans le milieu académique, afin de répondre à l'essor des générateurs de texte d'IA générative, selon Similarweb

Les détecteurs d'IA sont biaisés par rapport aux rédacteurs dont l'anglais n'est pas la langue maternelle, leur fiabilité est remise en question : le contenu de ChatGPT n'est pas détecté

Une étude affirme que les internautes ne parviennent à détecter avec précision les textes générés par l'IA que dans 50 % des cas, et une autre estime que les outils de détection ne sont pas fiables

Le service antiplagiat Turnitin affirme avoir mis au point un outil pour détecter les rédactions écrites par ChatGPT, mais les critiques sont sceptiques quant à l'efficacité du système

Une erreur dans cette actualité ? Signalez-nous-la !