La société s'interroge peut-être sur la manière de réglementer l'IA. Mais le président Biden est déjà convaincu que les États-Unis doivent interdire la capacité de cette technologie à imiter la voix des gens. Lors de son discours sur l'état de l'Union, jeudi, Biden n'a mentionné l'IA qu'à deux reprises au cours de son intervention d'une heure. Il a toutefois souligné que l'usurpation de la voix par l'IA constituait une menace à laquelle il fallait mettre un terme.
« Exploitez les promesses de l'IA et protégez-nous du danger. Interdisez les usurpations d'identité par l'IA et bien plus encore », a-t-il déclaré vers la fin de son discours.
Ce discours intervient plus d'un mois après qu'un robot téléphonique imitant la voix de Biden a été utilisé pour décourager les électeurs des primaires dans le New Hampshire. Ironiquement, ce n'était pas l'œuvre d'escrocs ou de propagandistes étrangers. C'est un consultant politique démocrate, Steve Kramer, qui a admis avoir orchestré ces appels pour attirer l'attention sur la menace que représente l'usurpation de la voix de l'IA.
« Je suis peut-être un méchant aujourd'hui, mais je pense qu'en fin de compte, nous aurons un meilleur pays et une meilleure démocratie grâce à ce que j'ai fait, délibérément », a déclaré Kramer à l'Associated Press.
Jusqu'à présent, l'administration Biden a tenté de réprimer l'usurpation d'identité vocale par l'IA par l'intermédiaire de la FCC. Le mois dernier, le régulateur américain a confirmé que les appels vocaux générés par l'IA violaient les lois américaines existantes conçues pour protéger les consommateurs contre les appels automatisés préenregistrés. Mais cette décision n'empêche en rien les acteurs malveillants de diffuser des "deepfakes" sur l'internet.
Aucune sanction éventuelle n'a été évoquée
Lors de son discours sur l'état de l'Union, le président Joe Biden a fait un clin d'œil à un problème croissant dans les secteurs du divertissement et de la technologie, en appelant à l'interdiction des imitations vocales par l'IA.
« Ici, chez nous, j'ai signé plus de 400 projets de loi bipartisans. Il en reste encore pour faire passer mon programme d'unité », a déclaré le président Biden, en commençant à énumérer une série de propositions différentes qu'il espère aborder s'il est élu pour un second mandat. « Renforcer les sanctions contre le trafic de fentanyl, adopter une législation bipartisane sur la protection de la vie privée pour protéger nos enfants en ligne, exploiter les promesses de l'intelligence artificielle pour nous protéger des dangers, interdire les usurpations de voix par l'intelligence artificielle, etc. »
Le président n'a pas précisé les types de garde-fous ou de sanctions qu'il prévoyait d'instaurer autour de cette technologie en plein essor, ni s'ils s'étendraient à l'industrie du divertissement. L'IA a été l'une des principales préoccupations de la SAG-AFTRA lors des négociations et de la grève du syndicat des acteurs contre les grands studios l'année dernière. Les négociations se sont finalement conclues par un accord établissant des exigences en matière de consentement et de rémunération pour les productions qui utilisent l'IA pour reproduire les ressemblances et les voix des acteurs. Toutefois, l'accord n'empêche pas les studios d'entraîner les systèmes d'IA à créer des interprètes « synthétiques » qui ne ressemblent en rien à des personnes réelles.
Plusieurs projets de loi en cours, les défenseurs des droits numérique tirent la sonnette d'alarme
Entre-temps, les législateurs américains ont proposé au moins deux projets de loi pour tenter de mettre un terme à l'usurpation de la voix de l'IA. L'un d'entre eux, le No AI Fraud Act des représentantes María Elvira Salazar (R-FL) et Madeleine Dean (D-PA), propose d'autoriser les personnes à poursuivre les fabricants de ces imitations pour obtenir des dommages-intérêts. Toutefois, l'Electronic Frontier Foundation, un groupe de défense de la vie privée, a critiqué la formulation de la loi, la jugeant trop vague et trop large et susceptible d'englober tous les types de médias numériques contenant l'image d'une personne.
« Si le Congrès veut vraiment protéger les artistes-interprètes et les gens ordinaires contre les utilisations trompeuses ou abusives de leurs images et de leur voix, il devrait adopter une approche précise, prudente et pratique qui évite les dommages collatéraux potentiels à la liberté d'expression, à la concurrence et à l'innovation », a ajouté l'EFF.
Au Sénat, la loi DEFIANCE (Disrupt Explicit Forged Images and Non-Consensual Edits) créerait un « recours civil fédéral » pour les victimes de "deepfake porn". Elle couvre « les contrefaçons numériques qui représentent la victime nue, ou engagée dans un comportement sexuellement explicite ou des scénarios sexuels » créés par des logiciels, l'apprentissage automatique, l'intelligence artificielle et d'autres moyens technologiques ou générés par ordinateur.
Des escroqueries qui s'appuient sur l'IA pour cloner les voix de vos proches et simuler une situation de rançon
Récemment, une femme nommée Robin a reçu un coup de fil semblant provenir de sa belle-mère, Mona, qui, pourtant, ne l'appelait jamais après minuit. Elle s'est dit qu'il s'agissait probablement d'une fausse manipulation et l'a ignoré. Mais son numéro l'a rappelée. Face à l'insistance, elle a décroché et, à l'autre bout du fil, elle a entendu la voix de Mona qui se lamentait et répétait les mots « Je ne peux pas le faire, je ne peux pas le faire ». « J'ai cru qu'elle essayait de me dire qu'une chose horrible et tragique s'était produite »; a expliqué Robin.
La première pensée de Robin a été qu'il y avait eu un accident. Puis elle a entendu ce qui semblait être la voix de son beau-père, Bob, au téléphone. « Mona, passe-moi le téléphone », a dit la voix de Bob, puis s'adressant à Robin, « va chercher Steve [son mari] ». Elle s'est exécutée et a réveillé son mari : « Je crois que c'est ta mère », lui dit-elle. « Je pense qu'elle me dit que quelque chose de terrible est arrivé ».
Lorsqu'il a pris le téléphone, il a entendu une voix masculine détendue à l'autre bout du fil : « Tu ne vas pas appeler la police, tu ne vas le dire à personne. J'ai un pistolet sur la tempe de ta mère et je vais lui faire sauter la cervelle si tu ne fais pas exactement ce que je te dis ».
L'homme a demandé de l'argent; il voulait cinq cents dollars, envoyés par Venmo. « C'était une somme tellement insensée pour un être humain », se souvient Steve. « Mais aussi : Il est évident que je vais payer cette somme ».
Après que Steve a envoyé les cinq cents dollars, l'homme lui a fait envoyé 250 dollars de plus. Puis, environ 25 minutes après l'échange téléphonique, il a appelé sa mère pour s'assurer que ses parents étaient désormais en sécurité. Après quelques tentatives, son père Bob a décroché le téléphone et l'a tendu à Mona. « Tu es à la maison ? Tu vas bien ? » Lui a demandé Steve.
Mona avait l'air d'aller bien, mais elle ne savait pas de quoi ils parlaient. « Oui, je suis couchée », a-t-elle répondu. « Pourquoi ? »
Ils venaient de se faire escroquer.
Cette arnaque est un exemple alarmant de la tendance croissante à l’utilisation de l’IA pour imiter les voix et tromper les gens en leur faisant croire que leurs proches sont en danger. La Commission Fédérale du Commerce des États-Unis a même émis un avertissement urgent concernant ces escroqueries, qui sont désormais les plus couramment signalées dans le pays
Selon la Federal Trade Commission, qui enquête sur la fraude à la consommation, les Américains ont perdu plus de deux millions de dollars à cause d'escroqueries de toutes sortes en 2022. L'année dernière, la FTC a publié un avis de clonage vocal, notant : « Si l'appelant demande de virer de l'argent, d'envoyer de la cryptomonnaie ou d'acheter des cartes-cadeaux et de lui donner les numéros de carte et les codes PIN, cela pourrait être le signe d'une arnaque ». Mais elle n’a pas encore créé de lignes directrices pour l’utilisation de la technologie de clonage vocal. Même si des lois sont adoptées, il sera extrêmement difficile de les faire respecter. Les fraudeurs peuvent utiliser des applications cryptées pour exécuter leurs stratagèmes, et les appels sont effectués en quelques minutes.
Conclusion
L’appel du président Biden pour une interdiction des imitations vocales par l’IA met en lumière la nécessité d’une réglementation prudente et ciblée. Alors que la technologie continue de progresser, il est crucial de trouver un équilibre entre l’exploitation de ses avantages et la protection contre ses méfaits.
Sources : State of the Union, EFF
Et vous ?
Quelles pourraient être les conséquences positives et négatives d’une interdiction des imitations vocales par l’IA ?
Comment les gouvernements devraient-ils équilibrer la protection de la vie privée avec les avantages de l’IA dans le domaine de la synthèse vocale ?
Les artistes et les créateurs de contenu devraient-ils avoir un droit de regard sur l’utilisation de leur voix par des technologies d’IA, même après avoir donné leur consentement initial ?
Quel rôle les entreprises technologiques devraient-elles jouer pour garantir l’authenticité des voix synthétisées et prévenir les abus ?
Les lois actuelles sont-elles suffisantes pour lutter contre les deepfakes et autres formes de désinformation générées par l’IA ? Sinon, quelles mesures supplémentaires devraient être prises ?