L'intelligence artificielle peut imiter une voix humaine suffisamment bien pour tromper de nombreuses personnes en leur faisant croire qu'elles entendent une personne réelle parler. Les voix artificielles font l’objet d’exploitation pour des appels téléphoniques automatisés. La Commission fédérale des communications (FCC) des États-Unis tente de lutter contre les versions les plus malveillantes de ces tentatives et a présenté une proposition visant à renforcer la protection des consommateurs contre les appels téléphoniques non désirés et illégaux générés par l'intelligence artificielle.La FCC entend fixer des limites et des règles, comme l'obligation pour les voix artificielles de révéler qu'elles sont fausses lorsqu'elles appellent. L'utilité de l'intelligence artificielle dans des communications et des activités peu recommandables fait qu'il n'est pas surprenant que la FCC cherche à mettre en place des réglementations à son sujet. Cela s'inscrit en sus dans le cadre des efforts déployés par la FCC pour lutter contre les appels téléphoniques non sollicités, qui constituent une nuisance et un moyen de commettre des fraudes. L'intelligence artificielle rend ces stratagèmes plus difficiles à détecter et à éviter, d'où la proposition, qui exigerait la divulgation des voix et des mots générés par l'intelligence artificielle. L'appel devrait commencer par l'explication par l'IA de l'origine artificielle de ce qu'elle dit et de la voix utilisée pour le dire. Tout contrevenant se verrait infliger une lourde amende.
Le nouveau plan vient s'ajouter à la décision déclaratoire prise par la FCC au début de l'année, selon laquelle la technologie de clonage de la voix dans le cadre des appels automatisés est illégale sans le consentement de la personne appelée. En plus de s'attaquer aux sources des appels générés par l'IA, la FCC a déclaré qu'elle souhaitait également mettre en place des outils permettant d'alerter les gens lorsqu'ils reçoivent des appels robotisés et des textes générés par intelligence artificielle, en particulier ceux qui sont non désirés ou illégaux.
Il pourrait s'agir de meilleurs filtres d'appels empêchant leur réception, d'algorithmes de détection basés sur l'intelligence artificielle ou d'une amélioration de l'identification de l'appelant afin d'identifier et de signaler les appels générés par intelligence artificielle. Pour les consommateurs, la réglementation proposée par la FCC offre une protection bienvenue contre les tactiques de plus en plus sophistiquées utilisées par les escrocs. En exigeant la transparence et en améliorant les outils de détection, la FCC vise à réduire le risque que les consommateurs soient victimes d'escroqueries générées par intelligence artificielle.
Un couple canadien perd 21 000 dollars à cause d'une fausse voix générée par l'IA qui avait imité à la perfection la voix de leur fils
Un couple canadien a perdu 21 000 dollars à la suite d'une astucieuse fraude téléphonique. Selon des rapports, le couple a reçu un appel se faisant passer pour leur fils, qui avait besoin d'argent pour payer sa caution parce qu'il avait des ennuis judiciaires. Les parents ont obéi lorsqu'on leur a demandé de transférer les fonds sur un certain compte bancaire. Plus tard, ils ont découvert que l'appel avait été passé par une voix générée par IA qui avait imité la voix de leur fils à l'aide d'une technologie deepfake, et non celle de leur enfant.
Les parents, qui ont requis l'anonymat, ont déclaré qu'au début, ils n'ont pas pensé que quelque chose n'allait pas parce que la voix ressemblait exactement à celle de leur fils. Ils ont affirmé que l'appelant était en mesure de divulguer des informations privées, telles que le lieu de résidence et la date de naissance de leur fils, que seul leur fils pouvait connaître. Lorsque leur vrai fils Benjamin les a appelés plus tard dans la journée, ils se sont rendu compte de l'escroquerie car ils savaient que l'appel précédent était un canular.
Les escrocs ont déjà utilisé des voix générées par l'IA pour tromper les victimes et les inciter à donner leur argent. La technologie du deep fake a permis aux escrocs de produire plus facilement des voix d'imitation convaincantes qui peuvent tromper même les personnes les plus observatrices. Bien que la technologie soit encore relativement jeune, elle devient de plus en plus avancée.
Les victimes ciblées conseillent maintenant aux gens d'être prudents et de se méfier de ce type d'escroquerie. Elles affirment qu'elles n'auraient jamais imaginé tomber dans un tel piège, mais que la voix de l'appelant était si convaincante qu'elles ne se sont rendu compte de rien avant qu'il ne soit trop tard. Ils espèrent que leur histoire servira d'avertissement à d'autres personnes et les empêchera de devenir la proie d'escroqueries similaires.
Avant Chat GPT et d'autres robots d'IA populaires comme Chat GPT, il y a eu des escroqueries utilisant la technologie de l'IA. Selon les rapports, une autre escroquerie similaire a eu lieu en 2019. Le directeur général d'une entreprise énergétique britannique a envoyé près de 240 000 dollars sur un compte hongrois parce qu'il croyait que son patron lui avait demandé de le faire lors d'un appel téléphonique.
Selon les experts, la meilleure approche pour se prémunir contre ce type d'escroquerie est de se méfier des appels entrants et de ne jamais donner d'informations personnelles ou financières par téléphone. Il est essentiel de vérifier l'identité de la personne à l'autre bout du fil et de raccrocher si quelque chose vous semble anormal. Par ailleurs, les banques et autres organismes financiers encouragent leurs clients à être prudents lorsqu'ils envoient de l'argent et à confirmer les informations relatives au compte avant d'envoyer des fonds.
Une voix de Joe Biden générée par l'IA prononce un discours "hilarant" sur l'état de l'Union
Alors que la lutte contre la désinformation a été présentée comme acharnée ces dernières années, elle pourrait s'avérer une partie de plaisir comparativement à ce à quoi la communauté pourrait faire face à l'avenir. L'IA générative, une catégorie de nouveaux outils d'IA dans laquelle on peut classer les IA de synthèse vocale et les IA de clonage de voix,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.