IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les cybercriminels dépouillent leurs victimes de 46 millions de dollars grâce au « deepfake », une fraude utilisant l'IA,
L'ONUDC alerte sur le risque croissant associé aux « deepfakes »

Le , par Bruno

27PARTAGES

8  0 
À Hong Kong, une escroquerie utilisant des deepfakes a conduit au vol de 46 millions de dollars, impliquant 27 personnes arrêtées, dont des jeunes diplômés. Les escrocs créaient de fausses identités féminines pour piéger des victimes via des appels vidéo, promettant des gains élevés grâce à des investissements en cryptomonnaies. Ils utilisaient des technologies de substitution de visage pour gagner la confiance des victimes, qui ont réalisé l'escroquerie lorsqu'elles ont tenté de retirer leur argent. La police a saisi des ordinateurs et des montres de luxe lors de l'opération. La situation des deepfakes, qui posent un risque croissant, a alerté des organisations comme l'ONUDC, signalant l'usage croissant de cette technologie par le crime organisé. Des entreprises cherchent à développer des solutions pour détecter ces fraudes, mais la sophistication des deepfakes continue d'évoluer.

Un deepfake est un enregistrement vidéo ou audio généré ou modifié à l'aide de l'intelligence artificielle (IA). Ce terme désigne à la fois le contenu ainsi produit et les technologies employées. "Deepfake" est une contraction de "Deep Learning" et "Fake", ce qui peut être interprété comme "fausse profondeur". Il s'agit de contenus trompeurs rendus extrêmement crédibles grâce à l'IA. Selon le Forum économique mondial, le nombre de deepfakes en ligne augmente chaque année de 900 %.


Les deepfakes sont désormais le deuxième type d'incident de sécurité le plus courant. Les cybercriminels exploitent cette technologie pour inciter les victimes à effectuer des transferts d'argent, comme le souligne ISMS.online. Un rapport basé sur une enquête menée auprès de plus de 500 professionnels de la sécurité de l'information au Royaume-Uni révèle que près de 32 % des entreprises britanniques ont été confrontées à un incident lié aux deepfakes au cours de l'année passée.

Dmitry Anikin, expert principal en sécurité chez Kaspersky, explique que « l'une des menaces les plus sérieuses posées par les deepfakes pour les entreprises ne réside pas toujours dans le vol de données. Parfois, les atteintes à la réputation peuvent avoir des conséquences très graves. Par exemple, imaginez qu'une vidéo compromettante soit diffusée, prétendument montrant votre dirigeant faisant des déclarations polarisantes sur des sujets sensibles. Cela pourrait rapidement entraîner une chute du cours des actions. Bien que les risques d'une telle menace soient très élevés, la probabilité d'en être victime demeure faible en raison du coût de création de deepfakes et du fait que peu d'attaquants possèdent les compétences nécessaires pour réaliser un deepfake de haute qualité. »

Parmi les personnes arrêtées figurent six jeunes diplômés universitaires qui auraient été recrutés pour mettre en place de fausses plateformes d'échange de cryptomonnaies. Une source anonyme a déclaré au South China Morning Post que cinq des personnes arrêtées étaient soupçonnées d'avoir des liens avec Sun Yee On, un important groupe criminel organisé (souvent appelé « triade ») à Hong Kong et en Chine. « Le syndicat a présenté aux victimes de faux relevés de transactions lucratives, affirmant que leurs investissements leur rapportaient gros », a déclaré Fang Chi-kin, chef de l'unité régionale de lutte contre la criminalité des Nouveaux Territoires du Sud.

Les cybercriminels, qui opèrent depuis un immeuble à Hong Kong, ont d'abord contacté les victimes sur les plateformes de médias sociaux en utilisant des photos générées par l'intelligence artificielle. Les images représentaient des personnes séduisantes avec des personnalités, des professions et des niveaux d'études attrayants.

L'escroquerie a pris une tournure plus avancée lorsque les victimes ont demandé des appels vidéo. Le surintendant Iu Wing-kan a déclaré que la technologie deepfake transformait les cybercriminels en ce qui semblait être des femmes séduisantes, gagnant la confiance des victimes et construisant ce qu'elles pensaient être une romance avec les cybercriminels.

Ces escroqueries ont touché des victimes provenant de Hong Kong, de la Chine continentale, de Taïwan, d'Inde et de Singapour, totalisant des pertes de 360 millions de dollars HK (46 millions de dollars US). C'est la première fois que la police locale intervient contre un groupe criminel utilisant cette technologie d'intelligence artificielle pour tromper les gens. Le groupe a établi ses activités dans un vaste espace industriel à Hung Hom et a commencé à recruter des employés, notamment des diplômés en communication numérique, pour développer ses opérations illégales sur les réseaux sociaux et via des systèmes informatiques.

La lutte contre la fraude numérique : pourquoi les autorités doivent s'adapter

L'intervention des autorités hongkongaises face à l'escroquerie utilisant des deepfakes soulève plusieurs interrogations importantes. D'un côté, il est encourageant de voir la police réagir à un phénomène en croissance et démanteler un réseau criminel. Toutefois, cette réaction semble tardive et insuffisante au regard de l'ampleur du problème.

La montée des technologies deepfake aurait dû alerter les autorités bien avant cet incident. Leur lenteur à s'adapter à l'évolution rapide de la criminalité assistée par l'IA suggère un manque de préparation et de compréhension des enjeux technologiques actuels. Cela remet en question la capacité des forces de l'ordre à protéger efficacement les citoyens dans un environnement numérique de plus en plus complexe.

En outre, l'implication de jeunes diplômés dans cette escroquerie met en lumière une faille dans l'éducation et la sensibilisation aux dangers des technologies qu'ils utilisent. Leur attraction pour des promesses de gains rapides souligne la nécessité d'une formation renforcée sur l'éthique numérique et les conséquences des activités illégales.


Cette escroquerie révèle également la vulnérabilité des plateformes en ligne et la facilité avec laquelle des individus peuvent être manipulés par des identités falsifiées. Les autorités devraient non seulement se concentrer sur les arrestations, mais également mettre en place des mesures préventives, telles que l'éducation du public sur les risques associés aux deepfakes et le développement de technologies de détection plus efficaces.

Bien que les arrestations soient un pas dans la bonne direction, elles soulignent également un besoin urgent d'une approche proactive et systémique pour combattre les escroqueries alimentées par l'IA. Il est impératif que les autorités agissent rapidement pour instaurer des mesures de protection, sensibiliser le public et renforcer la réglementation autour de l'utilisation des nouvelles technologies.

Source : South China Morning Post

Et vous ?

Quel est votre avis sur le sujet ?

Quelles stratégies les forces de l'ordre peuvent-elles adopter pour mieux détecter et prévenir les escroqueries basées sur des deepfakes avant qu'elles ne se produisent ?

Comment les plateformes de médias sociaux peuvent-elles améliorer leurs mécanismes de vérification pour empêcher l'utilisation de faux profils générés par deepfake ?

Voir aussi :

Le nombre de contenus deepfake en ligne augmente à un rythme annuel de 900 %, d'après le World Economic Forum

Les deepfakes sont désormais le deuxième incident de sécurité le plus fréquent, les attaquants utilisent la technologie d'IA pour inciter les victimes à effectuer des transferts de fonds, d'après ISMS.online

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de rsuinux
Membre actif https://www.developpez.com
Le 20/10/2024 à 10:21
Quand l'IA sert pour les entreprises, cela reste de l'IA
Quand ça sert pour des escroqueries, ça devient du deepfake, et le terme ia disparaît, alors que c'est quand même aussi de l'IA derrière.
Comme si on voulait cacher que c'est aussi pourri dans un cas comme dans l'autre. Oui j'ai une petite aversion pour l'utilisation de l'IA.
0  0