IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo avec son directeur financier généré par IA
Les anciennes conférences vidéos de ce directeur soupçonnées d'en être à l'origine

Le , par Stéphane le calme

124PARTAGES

11  0 
Un employé du secteur financier a versé 25 millions de dollars à des escrocs qui se faisaient passer pour le directeur financier de son entreprise grâce à la technologie du deepfake lors d’un appel vidéo, selon la police de Hong Kong. L’arnaque élaborée a consisté à faire croire à l’employé qu’il participait à un appel vidéo avec plusieurs autres membres du personnel, mais tous étaient en fait des créations de deepfake, a déclaré la police de Hong Kong lors d’un briefing vendredi. « Dans la conférence vidéo à plusieurs personnes, il s’avère que tout le monde (qu’il a vu) était faux », a déclaré le surintendant principal Baron Chan Shun-ching à la radio publique RTHK.

Le surintendant principal Baron Chan Shun-ching a déclaré que l’employé avait eu des soupçons après avoir reçu un message qui était censé provenir du directeur financier basé au Royaume-Uni de l’entreprise. Au départ, l’employé a pensé qu’il s’agissait d’un courriel de hameçonnage, car il parlait de la nécessité d’effectuer une transaction secrète.

Pour rassurer leur victime, les hackers ont proposé d’organiser une réunion en visioconférence. L’employé a accepté de participer à cet appel vidéo avec son directeur. Lors de l'appel vidéo, l’employé a mis de côté ses doutes car les autres personnes présentes ressemblaient et parlaient comme des collègues qu’il reconnaissait, a déclaré Chan.

Croyant que tout le monde sur l’appel était réel, l’employé a accepté de transférer un total de 200 millions de dollars de Hong Kong - environ 25 millions de dollars - a ajouté le policier. Au total, quinze virements ont été effectués par l’employé berné. La police a souligné que cette affaire était la première du genre à Hong Kong et qu'elle impliquait également une importante somme d'argent. Elle n'a toutefois pas révélé l'identité de l'employé ou de l'entreprise.

L’affaire est l’un des plusieurs épisodes récents dans lesquels des escrocs auraient utilisé la technologie du deepfake pour modifier des vidéos et d’autres images disponibles publiquement afin de tromper les gens et de leur soutirer de l’argent.

Lors du briefing de presse de vendredi, la police de Hong Kong a déclaré avoir procédé à six arrestations en lien avec de telles arnaques.

Chan a déclaré que huit cartes d’identité volées à Hong Kong - toutes signalées comme perdues par leurs propriétaires - avaient été utilisées pour faire 90 demandes de prêt et 54 inscriptions de comptes bancaires entre juillet et septembre de l’année dernière. À au moins 20 reprises, des deepfakes basés sur l’intelligence artificielle avaient été utilisés pour tromper les programmes de reconnaissance faciale en imitant les personnes figurant sur les cartes d’identité, selon la police.

L’arnaque impliquant le faux directeur financier n’a été découverte que bien plus tard, lorsque l’employé a vérifié auprès du siège social de l’entreprise. Les vidéos générées par l'IA auraient été créées à partir d'anciennes conférences en ligne authentiques. Pour donner plus de profondeur et de crédibilité à l'escroquerie, les auteurs ont eu recours à WhatsApp, au courrier électronique et à des vidéoconférences individuelles avec des membres du personnel de Hong Kong.

« Je pense que le fraudeur a téléchargé des vidéos à l'avance et qu'il a ensuite utilisé l'intelligence artificielle pour ajouter de fausses voix à utiliser lors de la vidéoconférence », a déclaré le commissaire principal de la police de la ville, Baron Chan Shun-ching.

Ce qui s'est passé exactement lors de l'appel fatidique n'est pas clair. Certains rapports suggèrent qu'un seul participant à l'appel était réel, tandis que d'autres suggèrent que plusieurs participants étaient humains. Tous s'accordent à dire que des humains générés par l'IA sont apparus et que, malheureusement, le professionnel de la finance anonyme a été dupé. La victime n'a découvert cette réalité qu'après avoir contacté le siège de l'entreprise (également anonyme).

Le média local The Standard a déclaré que cet incident était la première escroquerie de type "deepfake" par vidéoconférence à Hong Kong.


D'autres types de dégâts

Les rapports montrent à quel point il est facile de tirer parti d'outils gratuits pour générer des images plus nuisibles. C'est ce qui s'est passé avec Taylor Swift, notamment avec la diffusion d'images pornographiques générées par IA de la star. Bien que l'on ne sache pas encore combien d'outils d'IA ont été utilisés pour générer le flot d'images nuisibles, 404 Media a confirmé que certains membres d'un groupe Telegram, par lequel les images sont venus, se sont servis du générateur d'IA texte-image gratuit de Microsoft, Designer.

Selon 404 Media, les images n'ont pas été créées en entraînant un modèle d'IA sur les images de Taylor Swift, mais en piratant des outils tels que Designer pour contourner les mesures de protection conçues pour empêcher les outils...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 05/02/2024 à 18:56
Les pirates semblent avoir pu accéder aux mail, aux wechats, à l'outil de visio.
On se demande presque pourquoi ils se sont enquiquinés à générer cette fausse visio
vu l'étendu de l'intrusion.

https://www.thestandard.com.hk/breaking-news/section/4/213122/HK's-first-deepfake-video-conference-scam-involving-HK$200-million
Officers said the scammer even utilized WhatsApp, email, and "one-to-one" video conferences to communicate with Hong Kong staff members to add credibility to the scams.
Il est affirmé,
It was discovered that the speech of the "CFO" was only a virtual video generated by the scammer through deepfake.
Sur la base de quoi ? On ne sait pas.

et si c'était l'équipe dirigeante qui avait montée cela, en se faisant passé pour du deepfake, pour détourner l'argent ?
0  0 
Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 05/02/2024 à 22:44
ça parait gros...
Depuis quand il faut qu'une seule personne pour virer 25 millions d'euros vers des comptes à l'étranger ?
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 04/12/2024 à 9:33
Un élève de la Lancaster Country Day School a en effet utilisé l'IA pour créer des images sexuellement explicites d'environ 50 camarades de classe.
Futur roi des troll ! ça va être très compliqué de gérer ça... Quand on regarde sur internet les 3/4 des jeux gérés par IA sont conçus autour de thématique plus ou moins sexuelle, que ce soit en dessins ou autres.

Du reste on a vu a quelle vitesse l'industrie de la dépravation a adopté l'IA : petite copine virtuelle, génération de deepfake, de toute façon tout ce qui est tordu et faisable sera fait. C'est une loi d'internet.

C'est un peu des bonnes paroles de dire que c'est pas bien alors qu'on sait tous que c'est d'ores et déjà un pan entier de l'industrie de l'IA qui a trouvé une rentabilité en exploitant les travers des gens mais aussi l'isolement global dans lequel les individus sont plongés.

Et l'article le rappelle bien c'est la guerre économique et les USA veulent que des puces soient fabriqués chez eux. Peu importe à qui ils les vendent derrière, que ce soit des CEO de boite à cul ou du traitement d'image médicale...

Enfin c'est un vrai problème, difficile de trouver une vraie solution : restreindre l'accès des mineurs comme le fait l'Australie soulève pleins de problématiques annexes et avouons le : on savait déjà dire qu'on était majeur il y a 20 ans alors les jeunes d'aujourdhui on déjà une longueur d'avance pour accéder à des choses qu'ils ne sont pas censés voir.

C'est avant tout au parent de cadrer un peu les gosses et de pas les laisser trainer dans l'océan internet mais je pense qu'il doit y avoir des mécanismes à mettre en place.

Parce que je vois mal la société se désexualiser dans la pub et autre instrument de communication de masse tellement c'est rentré dans les moeurs. M'enfin on voit jamais venir les puritains quand ils arrivent, j'en dirais pas plus ^^
0  0