Avec la prolifération d’outils d’IA générative conviviaux, tels que ChatGPT d’OpenAI, les deepfakes se multiplient. En janvier, un appel automatisé généré par IA a tenté de saper les efforts de vote liés à l’élection présidentielle de 2024 en utilisant la voix de Biden. Jeudi dernier, la Commission fédérale des communications (FCC) a déclaré que de tels appels sont illégaux.
Les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.
Les fausses voix, images et autres contenus manipulés en ligne ont déjà fait parler d'eux en cette année électorale marquée par la haute technologie. La FCC a interdit les robocalls générés par l'IA après qu'un appel destiné aux électeurs du New Hampshire a imité la voix du président Joe Biden, les exhortant à ne pas voter lors des élections primaires de l'État.
Envoyé par FCC
L'augmentation de ce type d'appels s'est accélérée au cours des dernières années, car cette technologie permet désormais de confondre les consommateurs avec des informations erronées en imitant les voix de célébrités, de candidats politiques et de membres de la famille proche. Alors que les procureurs généraux des États peuvent actuellement cibler le résultat d'un appel vocal non désiré généré par l'IA, comme l'escroquerie ou la fraude qu'ils cherchent à perpétrer, cette mesure rend désormais illégal le fait d'utiliser l'IA pour générer la voix de ces appels téléphoniques, élargissant ainsi les voies légales par lesquelles les organismes chargés de l'application de la loi dans les États peuvent tenir ces auteurs pour responsables en vertu de la loi.
La Maison Blanche s'inquiète des dommages que pourraient faire les deepfake en période électorale
La Maison Blanche est de plus en plus consciente du besoin du public américain de distinguer les déclarations du président Joe Biden et les informations associées comme étant authentiques dans cette nouvelle ère d’intelligence artificielle générative facile à utiliser. Compte tenu de l'utilisation explosive de l'IA à l'heure actuelle et de la production d'un contenu de plus en plus convaincant, y compris de vidéos fluides et plausibles générées par l'IA, cette situation pourrait se transformer en un jeu de piste pour la Maison-Blanche.
L'expert en IA de l'administration affirme que des mesures sont prises pour protéger les vidéos de Joe Biden afin d'éviter qu'elles ne soient transformées en "deepfakes" malveillants.
Il est peu probable que l'interdiction de ces techniques suffise à empêcher les gens de les utiliser. Aussi, pour contrer cette menace grandissante, Ben Buchanan, conseiller spécial de Biden pour l’intelligence artificielle, a révélé que la Maison Blanche travaille sur un moyen de « vérifier cryptographiquement » toutes ses communications officielles. L’objectif ultime est de garantir que quiconque visionne une vidéo de Biden publiée par la Maison Blanche puisse immédiatement déterminer si elle est authentique et non altérée par un tiers. Cette initiative vise à renforcer la confiance du public dans les informations émanant de la Maison Blanche.
Une méthode courante consiste à coupler une clé privée et une clé publique. La source d'une information génère une valeur de hachage pour une vidéo ou un document donné et la crypte à l'aide de sa clé privée. Ce hachage ne peut être décrypté qu'à l'aide de la clé publique, qui est accessible à tous et attribuée à l'auteur original. Ainsi, un décryptage réussi à l'aide de la clé publique confirme le propriétaire de la clé privée, ce qui permet de vérifier la source.
Toute tentative de modification du fichier par un tiers ne contiendrait pas la valeur de hachage originale et ne permettrait donc pas de vérifier son authenticité.
Bien que ces efforts soient certainement bénéfiques, il convient de prendre en compte certains risques potentiels. Une utilisation correcte aiderait sans aucun doute les gens à vérifier les communications réelles, mais ces pouvoirs donneraient au président et à son équipe un moyen de revendiquer la « vérité ».
Si le président commet une erreur ou une gaffe lors de la diffusion d'une vidéo à la Maison-Blanche, il lui suffirait de ne pas signer cryptographiquement le contenu et de le désavouer comme étant faux. Compte tenu de l'état de division du paysage politique, il est probable que de tels pouvoirs pourraient être utilisés à des fins militaires.
Pour l'instant, nous ne disposons pas d'un calendrier pour cette évolution.
Bien que l’année dernière, un décret exécutif sur l’IA ait créé un Institut de sécurité de l’IA au Département du Commerce chargé d’établir des normes pour le marquage des contenus afin d’en montrer la provenance, l’effort visant à vérifier les communications de la Maison Blanche est distinct. Ben Buchanan a souligné que c’est un processus plus long, mais qu’il est en cours. La Maison Blanche s’efforce ainsi de devancer les risques potentiels et de protéger l’intégrité de ses communications officielles.
Des réseaux sociaux déjà dépassés ?
Récemment, l'agence hollywoodienne WME a annoncé ce qui semble être un projet similaire de filigrane, en partenariat avec la société technologique Vermillio. Le projet Trace ID permettrait de marquer les images et autres contenus d'un artiste afin de savoir s'ils sont utilisés sans autorisation - dans ce cas, l'objectif est de protéger la propriété intellectuelle et les revenus potentiels des acteurs. Dans les projets de la Maison Blanche, l'objectif est d'empêcher l'utilisation abusive du contenu de ses communications et peut-être même de retrouver les auteurs d'images ou de vidéos falsifiées du président ou d'autres membres de l'administration.
En Europe, les autorités sont également sensibles au risque d'utilisation abusive du contenu de l'IA et s'efforcent de le combattre. Le plan consiste à utiliser la nouvelle loi sur les services numériques de l'Union européenne pour inciter un groupe de géants en ligne, tels que Meta, Google, TikTok et X, à identifier et à étiqueter les contenus créés par l'IA générative ainsi que les "deepfakes", afin qu'il soit clair qu'ils ne sont pas "réels". Les lignes directrices de l'UE mentionnent spécifiquement le filigrane comme outil de détection du matériel créé par l'IA et suggère que les plateformes technologiques « coopèrent avec les fournisseurs de systèmes d'IA générative » pour rendre les vidéos générées par l'IA faciles à identifier. Les utilisateurs des plateformes devraient également disposer d'outils faciles à utiliser pour pouvoir eux-mêmes repérer les images truquées.
Cette nouvelle peut être particulièrement pertinente pour Meta, en raison des critiques que l'entreprise a essuyées de la part de son propre conseil de surveillance après que la récente vidéo virale impliquant le président Biden a été laissée à disposition sur ses serveurs. Meta avait conclu que la vidéo éditée n'était pas un deepfake, qui aurait été étroitement contrôlé, de sorte que ses propres politiques signifiaient que la vidéo pouvait rester à la disposition des utilisateurs. Le comité de surveillance a demandé à Meta de clarifier ses politiques "incohérentes" en matière de "deepfakes" et de contenus manipulés.
Les deepfakes IA deviennent de plus en plus répandus
« Je m'attends à un tsunami de désinformation », a déclaré Oren Etzioni, expert en intelligence artificielle et professeur émérite à l'Université de Washington. « Je ne peux pas le prouver. J'espère avoir tort. Mais les ingrédients sont là et je suis complètement terrifié ».
Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.
Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Etzioni.
« On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».
Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.
Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.
Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.
Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.
Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.
Source : Ben Buchanan, conseiller spécial de Biden pour l’intelligence artificielle
Et vous ?
Pensez-vous que la vérification cryptographique des vidéos est nécessaire pour prévenir la propagation des deepfakes ?
Quels sont les avantages et les inconvénients d’une telle approche ?
Comment pouvons-nous garantir que les algorithmes de vérification ne deviennent pas eux-mêmes vulnérables aux manipulations ?
Quelles autres mesures pourraient être prises pour renforcer la confiance dans les informations officielles émanant de la Maison Blanche ?
Croyez-vous que la technologie de vérification cryptographique pourrait être étendue à d’autres personnalités publiques ?