Un couple canadien a perdu 21 000 dollars à la suite d'une astucieuse fraude téléphonique. Selon Washington Post, le couple a reçu un appel se faisant passer pour leur fils, qui avait besoin d'argent pour payer sa caution parce qu'il avait des ennuis judiciaires. Les parents ont obéi lorsqu'on leur a demandé de transférer les fonds sur un certain compte bancaire. Plus tard, ils ont découvert que l'appel avait été passé par une voix générée par l'IA qui avait imité la voix de leur fils à l'aide d'une technologie "deep fake, et non celle de leur enfant.
Les parents, qui ont requis l'anonymat, ont déclaré qu'au début, ils n'ont pas pensé que quelque chose n'allait pas parce que la voix ressemblait exactement à celle de leur fils. Ils ont affirmé que l'appelant était en mesure de divulguer des informations privées, telles que le lieu de résidence et la date de naissance de leur fils, que seul leur fils pouvait connaître. Lorsque leur vrai fils Benjamin les a appelés plus tard dans la journée, ils se sont rendu compte de l'escroquerie car ils savaient que l'appel précédent était un canular.
Les escrocs ont déjà utilisé des voix générées par l'IA pour tromper les victimes et les inciter à donner leur argent. La technologie du deep fake a permis aux escrocs de produire plus facilement des voix d'imitation convaincantes qui peuvent tromper même les personnes les plus observatrices. Bien que la technologie soit encore relativement jeune, elle devient de plus en plus avancée.
Les victimes ciblées conseillent maintenant aux gens d'être prudents et de se méfier de ce type d'escroquerie. Elles affirment qu'elles n'auraient jamais imaginé tomber dans un tel piège, mais que la voix de l'appelant était si convaincante qu'elles ne se sont rendu compte de rien avant qu'il ne soit trop tard. Ils espèrent que leur histoire servira d'avertissement à d'autres personnes et les empêchera de devenir la proie d'escroqueries similaires.
Avant Chat GPT et d'autres robots d'IA populaires comme Chat GPT, il y a eu des escroqueries utilisant la technologie de l'IA. Selon les rapports, une autre escroquerie similaire a eu lieu en 2019. Le directeur général d'une entreprise énergétique britannique a envoyé près de 240 000 dollars sur un compte hongrois parce qu'il croyait que son patron lui avait demandé de le faire lors d'un appel téléphonique.
Selon les experts, la meilleure approche pour se prémunir contre ce type d'escroquerie est de se méfier des appels entrants et de ne jamais donner d'informations personnelles ou financières par téléphone. Il est essentiel de vérifier l'identité de la personne à l'autre bout du fil et de raccrocher si quelque chose vous semble anormal. Par ailleurs, les banques et autres organismes financiers encouragent leurs clients à être prudents lorsqu'ils envoient de l'argent et à confirmer les informations relatives au compte avant d'envoyer des fonds.
Source : Le Washington Post
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des outils d'IA de clonage et de synthèse vocale ?
Selon vous, risquent-ils d'amplifier la désinformation en ligne ? Pourquoi ?
Est-il possible d'éviter qu'ils soient utilisés à mauvais escient ? Si oui, que proposez-vous ?
Voir aussi :
Une IA permet aux acteurs de prononcer des répliques parfaites dans des langues étrangères, cette technologie peut traduire le cinéma et la télévision sans perdre la performance originale d'un acteur
Les nouveaux outils de clonage de voix par l'IA ajoutent "de l'huile sur le feu" de la désinformation, une voix de Joe Biden générée par l'IA prononce un discours "hilarant" sur l'état de l'Union
Keanu Reeves affirme que les deepfakes sont "terrifiants" et ajoute que ses contrats de film interdisent les modifications numériques de son jeu d'acteur, l'acteur de Matrix dénonce leur utilisation
Des milliers de personnes arnaquées par des voix d'IA imitant des proches en cas d'urgence, 11 millions de dollars ont été volés par le biais de ces escroqueries par téléphone en 2022
Arnaque à l'IA : un couple canadien perd 21 000 dollars à cause d'une fausse voix
Générée par l'IA qui avait imité à la perfection la voix de leur fils
Arnaque à l'IA : un couple canadien perd 21 000 dollars à cause d'une fausse voix
Générée par l'IA qui avait imité à la perfection la voix de leur fils
Le , par Nancy Rey
Une erreur dans cette actualité ? Signalez-nous-la !