IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Maison Blanche veut «vérifier cryptographiquement» les vidéos de Joe Biden afin que les téléspectateurs ne les confondent pas avec des «deepfakes»
Et dit reconnaitre « le risque de préjudice »

Le , par Stéphane le calme

7PARTAGES

6  0 
Face à l'augmentation des escroqueries de type deepfake et IA générative, la Maison Blanche déclare que des moyens de vérifier cryptographiquement ses communiqués officiels sont « en cours d'élaboration ». Aucun détail n'a encore été communiqué sur la forme que prendrait ce processus, mais il semble probable qu'il s'agirait d'une forme de « signature » des communiqués officiels qui prouverait que la Maison-Blanche en est la véritable source.

Avec la prolifération d’outils d’IA générative conviviaux, tels que ChatGPT d’OpenAI, les deepfakes se multiplient. En janvier, un appel automatisé généré par IA a tenté de saper les efforts de vote liés à l’élection présidentielle de 2024 en utilisant la voix de Biden. Jeudi dernier, la Commission fédérale des communications (FCC) a déclaré que de tels appels sont illégaux.


Les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.

Les fausses voix, images et autres contenus manipulés en ligne ont déjà fait parler d'eux en cette année électorale marquée par la haute technologie. La FCC a interdit les robocalls générés par l'IA après qu'un appel destiné aux électeurs du New Hampshire a imité la voix du président Joe Biden, les exhortant à ne pas voter lors des élections primaires de l'État.

Citation Envoyé par FCC
La Commission fédérale des communications a annoncé aujourd'hui l'adoption à l'unanimité d'une décision déclaratoire reconnaissant que les appels effectués avec des voix générées par l'IA sont « artificiels » au sens de la loi sur la protection des consommateurs par téléphone (TCPA). Cette décision, qui prend effet immédiatement, rend illégale la technologie de clonage de la voix utilisée dans les escroqueries de type "robocall" qui ciblent les consommateurs. Les procureurs généraux des États du pays disposeront ainsi de nouveaux outils pour poursuivre les malfaiteurs à l'origine de ces appels téléphoniques frauduleux.
« Les mauvais acteurs utilisent des voix générées par l'IA dans des appels téléphoniques non sollicités pour extorquer des membres vulnérables de la famille, imiter des célébrités et désinformer les électeurs. Nous mettons en garde les fraudeurs qui se cachent derrière ces robocalls », a déclaré Jessica Rosenworcel, présidente de la FCC. « Les procureurs généraux des États disposeront désormais de nouveaux outils pour réprimer ces escroqueries et veiller à ce que le public soit protégé contre la fraude et la désinformation ».

L'augmentation de ce type d'appels s'est accélérée au cours des dernières années, car cette technologie permet désormais de confondre les consommateurs avec des informations erronées en imitant les voix de célébrités, de candidats politiques et de membres de la famille proche. Alors que les procureurs généraux des États peuvent actuellement cibler le résultat d'un appel vocal non désiré généré par l'IA, comme l'escroquerie ou la fraude qu'ils cherchent à perpétrer, cette mesure rend désormais illégal le fait d'utiliser l'IA pour générer la voix de ces appels téléphoniques, élargissant ainsi les voies légales par lesquelles les organismes chargés de l'application de la loi dans les États peuvent tenir ces auteurs pour responsables en vertu de la loi.


La Maison Blanche s'inquiète des dommages que pourraient faire les deepfake en période électorale

La Maison Blanche est de plus en plus consciente du besoin du public américain de distinguer les déclarations du président Joe Biden et les informations associées comme étant authentiques dans cette nouvelle ère d’intelligence artificielle générative facile à utiliser. Compte tenu de l'utilisation explosive de l'IA à l'heure actuelle et de la production d'un contenu de plus en plus convaincant, y compris de vidéos fluides et plausibles générées par l'IA, cette situation pourrait se transformer en un jeu de piste pour la Maison-Blanche.

L'expert en IA de l'administration affirme que des mesures sont prises pour protéger les vidéos de Joe Biden afin d'éviter qu'elles ne soient transformées en "deepfakes" malveillants.

Il est peu probable que l'interdiction de ces techniques suffise à empêcher les gens de les utiliser. Aussi, pour contrer cette menace grandissante, Ben Buchanan, conseiller spécial de Biden pour l’intelligence artificielle, a révélé que la Maison Blanche travaille sur un moyen de « vérifier cryptographiquement » toutes ses communications officielles. L’objectif ultime est de garantir que quiconque visionne une vidéo de Biden publiée par la Maison Blanche puisse immédiatement déterminer si elle est authentique et non altérée par un tiers. Cette initiative vise à renforcer la confiance du public dans les informations émanant de la Maison Blanche.

Une méthode courante consiste à coupler une clé privée et une clé publique. La source d'une information génère une valeur de hachage pour une vidéo ou un document donné et la crypte à l'aide de sa clé privée. Ce hachage ne peut être décrypté qu'à l'aide de la clé publique, qui est accessible à tous et attribuée à l'auteur original. Ainsi, un décryptage réussi à l'aide de la clé publique confirme le propriétaire de la clé privée, ce qui permet de vérifier la source.

Toute tentative de modification du fichier par un tiers ne contiendrait pas la valeur de hachage originale et ne permettrait donc pas de vérifier son authenticité.

Bien que ces efforts soient certainement bénéfiques, il convient de prendre en compte certains risques potentiels. Une utilisation correcte aiderait sans aucun doute les gens à vérifier les communications réelles, mais ces pouvoirs donneraient au président et à son équipe un moyen de revendiquer la « vérité ».

Si le président commet une erreur ou une gaffe lors de la diffusion d'une vidéo à la Maison-Blanche, il lui suffirait de ne pas signer cryptographiquement le contenu et de le désavouer comme étant faux. Compte tenu de l'état de division du paysage politique, il est probable que de tels pouvoirs pourraient être utilisés à des fins militaires.

Pour l'instant, nous ne disposons pas d'un calendrier pour cette évolution.

Bien que l’année dernière, un décret exécutif sur l’IA ait créé un Institut de sécurité de l’IA au Département du Commerce chargé d’établir des normes pour le marquage des contenus afin d’en montrer la provenance, l’effort visant à vérifier les communications de la Maison Blanche est distinct. Ben Buchanan a souligné que c’est un processus plus long, mais qu’il est en cours. La Maison Blanche s’efforce ainsi de devancer les risques potentiels et de protéger l’intégrité de ses communications officielles.


Des réseaux sociaux déjà dépassés ?

Récemment, l'agence hollywoodienne WME a annoncé ce qui semble être un projet similaire de filigrane, en partenariat avec la société technologique Vermillio. Le projet Trace ID permettrait de marquer les images et autres contenus d'un artiste afin de savoir s'ils sont utilisés sans autorisation - dans ce cas, l'objectif est de protéger la propriété intellectuelle et les revenus potentiels des acteurs. Dans les projets de la Maison Blanche, l'objectif est d'empêcher l'utilisation abusive du contenu de ses communications et peut-être même de retrouver les auteurs d'images ou de vidéos falsifiées du président ou d'autres membres de l'administration.

En Europe, les autorités sont également sensibles au risque d'utilisation abusive du contenu de l'IA et s'efforcent de le combattre. Le plan consiste à utiliser la nouvelle loi sur les services numériques de l'Union européenne pour inciter un groupe de géants en ligne, tels que Meta, Google, TikTok et X, à identifier et à étiqueter les contenus créés par l'IA générative ainsi que les "deepfakes", afin qu'il soit clair qu'ils ne sont pas "réels". Les lignes directrices de l'UE mentionnent spécifiquement le filigrane comme outil de détection du matériel créé par l'IA et suggère que les plateformes technologiques « coopèrent avec les fournisseurs de systèmes d'IA générative » pour rendre les vidéos générées par l'IA faciles à identifier. Les utilisateurs des plateformes devraient également disposer d'outils faciles à utiliser pour pouvoir eux-mêmes repérer les images truquées.

Cette nouvelle peut être particulièrement pertinente pour Meta, en raison des critiques que l'entreprise a essuyées de la part de son propre conseil de surveillance après que la récente vidéo virale impliquant le président Biden a été laissée à disposition sur ses serveurs. Meta avait conclu que la vidéo éditée n'était pas un deepfake, qui aurait été étroitement contrôlé, de sorte que ses propres politiques signifiaient que la vidéo pouvait rester à la disposition des utilisateurs. Le comité de surveillance a demandé à Meta de clarifier ses politiques "incohérentes" en matière de "deepfakes" et de contenus manipulés.


Les deepfakes IA deviennent de plus en plus répandus

« Je m'attends à un tsunami de désinformation », a déclaré Oren Etzioni, expert en intelligence artificielle et professeur émérite à l'Université de Washington. « Je ne peux pas le prouver. J'espère avoir tort. Mais les ingrédients sont là et je suis complètement terrifié ».

Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.

Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Etzioni.

« On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».

Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.

Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.

Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.

Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.

Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.

Source : Ben Buchanan, conseiller spécial de Biden pour l’intelligence artificielle

Et vous ?

Pensez-vous que la vérification cryptographique des vidéos est nécessaire pour prévenir la propagation des deepfakes ?
Quels sont les avantages et les inconvénients d’une telle approche ?
Comment pouvons-nous garantir que les algorithmes de vérification ne deviennent pas eux-mêmes vulnérables aux manipulations ?
Quelles autres mesures pourraient être prises pour renforcer la confiance dans les informations officielles émanant de la Maison Blanche ?
Croyez-vous que la technologie de vérification cryptographique pourrait être étendue à d’autres personnalités publiques ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 12/02/2024 à 18:11
En fait c'est simple de détecter un deepfake de Joe Biden ; s'il ne fait pas d'erreur ou de confusion de son discours, c'est que c'est un deepfake .

5  1 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:38
Citation Envoyé par OrthodoxWindows Voir le message
Ce pays a surtout atteint un niveau d’abstention est de désintérêt pour la politique très élevé, probablement parce que les gens on vraiment la sensation d'un foutage de gueule généralisé.
En quoi il diffère du notre du coup ?
4  0 
Avatar de Nain porte koi
Membre éprouvé https://www.developpez.com
Le 01/08/2024 à 16:24
L'intégralité des individus qui ont regardé cette vidéo savent qu'elle est fausse.
C'est beau de croire que personne n'est crédule.
Si c'était le cas il n'y aurait plus jamais de phising et autre joyeusetés qui se basent exclusivement sur la crédulité.
4  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 09/10/2024 à 16:25
Ils le font tous et dans tout les sens alors les accusations américaines ne riment pas à grand chose...

Plus rien ne semble vrai passé un certains niveau, c'est surtout ça qui devrait nous alarmer.

On attends aussi peut-être trop de choses de ces élections alors que nous même n'attendons plus rien des nôtres, c'est triste.
3  0 
Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 06/11/2024 à 17:57
et après on aura des IA pour enlever les filigranes...
3  0 
Avatar de Rolllmops
Membre averti https://www.developpez.com
Le 13/02/2024 à 12:41
Citation Envoyé par OrthodoxWindows Voir le message
En fait c'est simple de détecter un deepfake de Joe Biden ; s'il ne fait pas d'erreur ou de confusion de son discours, c'est que c'est un deepfake .

Tandis que Trump raconte tellement n'importe quoi et a un débit de parole tellement laborieux en permanence qu'il est impossible de créer un fake qui soit pire
4  2 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 31/07/2024 à 16:02
La suite pour Kamala Harris



3  1 
Avatar de Nain porte koi
Membre éprouvé https://www.developpez.com
Le 01/08/2024 à 17:09
Non mais là il faut voir le contexte, il est évident que ce n'est pas la vraie Kamala Harris qui dit ça.
Donc sur les 13 millions de vues (au moment de cet article) pas une seule personne n'a cru que c'était un fake ?!
Là je pense que c'est toi qui est crédule (sans vouloir te vexer).
2  0 
Avatar de Rolllmops
Membre averti https://www.developpez.com
Le 12/02/2024 à 13:10
Ils auront beau signaler quelles vidéos sont des faux ou non, ça n'empêchera pas ces demeurés de républicains de croire toute fausse vidéo discréditant Joe Biden et d'écarter toute vraie vidéo discréditant Trump.

Ce pays a hélas atteint un niveau où la logique et la réalité n'ont plus cours.
4  3 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 13/02/2024 à 13:52
Citation Envoyé par virginieh Voir le message
En quoi il diffère du notre du coup ?
C'était la question que je me posais également.
1  0