IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA tient enfin sa promesse de productivité... pour les cybercriminels, tandis que les entreprises cherchent encore leur ROI IA : Interpol note que les fraudes dopées à l'IA sont 4,5 fois plus rentables

Le , par Stéphane le calme

21PARTAGES

14  0 
Le rapport annuel d'Interpol sur la fraude financière mondiale, publié le 16 mars 2026 à l'ouverture du Sommet mondial sur la fraude de Vienne, dresse un tableau saisissant : les escroqueries assistées par intelligence artificielle sont désormais 4,5 fois plus rentables que les méthodes traditionnelles. Deepfakes vendus en kit sur le marché noir, hameçonnage sans fautes d'orthographe, centres d'arnaque qui prolifèrent de l'Asie du Sud-Est à l'Afrique de l'Ouest — la cybercriminalité financière est entrée dans une phase d'industrialisation que les forces de l'ordre peinent à suivre.

Depuis des années, la promesse centrale de l'IA générative pour les entreprises légitimes est celle d'un bond de productivité. Les résultats réels restent mitigés, les études empiriques divergent, et le retour sur investissement demeure souvent difficile à mesurer. Mais il est un secteur où cette promesse s'est pleinement concrétisée : la fraude financière en ligne. Selon les dernières estimations d'Interpol, les dispositifs de fraude financière conduits avec l'assistance de l'intelligence artificielle sont 4,5 fois plus rentables que ceux qui ne l'utilisent pas.

Ce chiffre, publié dans le rapport Global Financial Fraud Threat Assessment 2026, n'est pas une projection théorique : il synthétise des données issues des services de police de dizaines de pays membres de l'organisation internationale de coopération policière dont le siège est à Lyon. Le rapport détaille neuf types distincts de cyberfraudes, toutes stimulées par le développement de l'IA et par les piratages massifs de données personnelles en ligne. Fausses plateformes d'investissement, hameçonnage par SMS, escroqueries sentimentales : autant de schémas connus, mais dont la sophistication a radicalement changé d'échelle.

Le mécanisme central de cette amélioration est bien identifié. Les cybercriminels recourent principalement aux outils d'IA générative pour éliminer les petits détails susceptibles de les trahir. La reformulation automatique des messages adressés aux victimes permet de corriger les maladresses révélatrices d'un locuteur non natif, ce qui fait souvent la différence entre l'échec et le succès lors de l'usurpation d'identité de grandes marques. Dit autrement : la barrière de la langue, qui avait longtemps constitué le principal indice permettant à un utilisateur averti de repérer une tentative de hameçonnage, n'existe plus. Les jours où l'on pouvait détecter un courriel frauduleux à la seule lecture de ses fautes de grammaire sont révolus.

La technologie du crime en kit

Si le recours à l'IA pour affiner des textes frauduleux représente l'usage le plus répandu, les possibilités techniques vont bien au-delà. Sur le versant le plus avancé, la technologie des hypertrucages (deepfakes) a considérablement progressé en deux ans. Interpol indique que les criminels peuvent désormais créer des clones vocaux convaincants à partir d'à peine dix secondes de matériau audio de référence, comme un extrait sonore puisé dans une publication sur les réseaux sociaux.

Ce qui frappe dans ce tableau, c'est moins la sophistication technique en elle-même que son accessibilité. Sur les marchés du dark web, des trousses d'identités synthétiques clés en main — communément désignées sous le terme deepfake-as-a-service — permettent de convaincre des victimes qu'elles s'adressent à une personne qu'elles connaissent. Ces kits sont proposés à des prix abordables, ce qui a accéléré l'industrialisation de ce type de cybercriminalité.

Une étude publiée par Help Net Security en février 2026, fondée sur l'analyse de 2 264 messages échangés dans 163 fils de discussion sur 21 forums de cybercriminalité entre janvier et juillet 2025, illustre comment ces outils s'intègrent progressivement dans les pratiques courantes du milieu. ChatGPT apparaissait dans 52,5 % des fils mentionnant des outils d'IA légaux, suivi de DeepSeek à 27,9 %, Claude à 19,7 % et Grok à 18 %. Les modèles à code source ouvert et hébergés localement attiraient l'attention pour leur caractère privé et leur moindre filtrage des contenus. Le contournement des garde-fous (jailbreaking) y était décrit comme une pratique courante, avec des techniques partagées ouvertement entre membres.

Benoît Dupont, professeur de criminologie et co-auteur de cette étude, estime que les opérations d'escroquerie et d'ingénierie sociale intégreront les capacités de l'IA plus rapidement et de manière plus systématique que les activités de création de logiciels malveillants, notamment parce que les incitations financières y sont plus immédiatement accessibles.


L'IA agente : la prochaine frontière criminelle

Interpol ne se contente pas de documenter l'état présent ; il projette également les risques à venir. La tendance émergente la plus préoccupante concerne l'IA dite « agente », des systèmes capables d'exécuter des tâches complexes de manière autonome, sans intervention humaine à chaque étape. Si cette technologie n'est pas encore déployée à grande échelle par les criminels, le jour où elle le sera, des agents pourront être chargés de collecter toutes les informations pertinentes sur une cible (identifiants, vulnérabilités des systèmes d'une entreprise) et même de conseiller le criminel sur le montant d'une rançon à exiger, en fonction de la valeur des données dérobées et de la situation financière de la victime.

Selon le rapport d...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 18/03/2026 à 8:51
Encore une fois, c'était couru d'avance, il est évident que 98% des contenus issus de générateurs de contenus artificiels seront un tas de merde (propagande, contenus putaclics, contenus erronés, contenus volontairement trompeurs, contenus vides de sens, contenus vides d'intérêt, ...).
1  0