IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

YouTube met à la disposition des politiciens et des journalistes un outil de détection des deepfakes afin de protéger les utilisateurs au cœur du débat politique et d'identifier les vidéos générées par l'IA

Le , par Alex

60PARTAGES

4  0 
YouTube a commencé à proposer un outil gratuit aux responsables gouvernementaux, aux journalistes et aux candidats politiques afin de les aider à identifier et à supprimer les vidéos générées par l'IA qui ressemblent à leur apparence. « YouTube protège depuis longtemps la liberté d'expression et les contenus d'intérêt public, notamment en préservant les contenus tels que les parodies et les satires, même lorsqu'ils sont utilisés pour critiquer des dirigeants mondiaux ou des personnalités influentes », a déclaré YouTube. Les participants devront fournir une vidéo d'eux-mêmes ainsi qu'une pièce d'identité officielle.

Les deepfakes sont des images, des vidéos ou des fichiers audio qui ont été modifiés ou générés à l'aide de l'intelligence artificielle (IA), d'outils basés sur l'IA ou de logiciels de montage audio-vidéo. Ils peuvent représenter des personnes réelles ou fictives et sont considérés comme une forme de média synthétique, c'est-à-dire un média généralement créé par des systèmes d'intelligence artificielle en combinant divers éléments médiatiques pour former un nouvel artefact médiatique.

L'inquiétude autour des deepfakes grandit depuis un certain temps et une étude publiée par ISMS.online en 2024 montre que les deepfakes se classent désormais au deuxième rang des incidents de sécurité de l'information les plus courants pour les entreprises britanniques et que plus d'un tiers des organisations en ont fait l'expérience. Le rapport, basé sur une enquête menée auprès de plus de 500 professionnels de la sécurité de l'information au Royaume-Uni, montre que près de 32 % des entreprises britanniques ont été confrontées à un incident de sécurité de type « deepfake » entre mai 2023 et avril 2024.

Un exemple de mauvaise utilisation de deepfake, en décembre 2025, une vidéo politique générée par intelligence artificielle, attribuée à des réseaux proches du Parti républicain, a franchi un seuil inquiétant. En mettant en scène, de manière totalement fictive, un élu du Parti démocrate donnant un traitement hormonal à un enfant, ce deepfake illustre la mutation accélérée de la désinformation politique à l’ère de l’IA. Plus qu’un simple coup de communication, il révèle une stratégie qui instrumentalise la technologie pour fabriquer de toutes pièces des scandales émotionnels.

Dans ce contexte, YouTube a commencé à proposer un outil gratuit aux responsables gouvernementaux, aux journalistes et aux candidats politiques afin de les aider à identifier et à supprimer les vidéos générées par l'IA qui ressemblent à leur apparence. La société, qui appartient à Alphabet, la société mère de Google, a déclaré que cet outil vise à aider les personnes au cœur de l'actualité et du discours civique à « protéger leur identité ». Cet outil arrive plus de quatre mois après que la plateforme ait lancé l'outil de détection des ressemblances pour les membres du programme YouTube Partner.

« YouTube protège depuis longtemps la liberté d'expression et les contenus d'intérêt public, notamment en préservant les contenus tels que les parodies et les satires, même lorsqu'ils sont utilisés pour critiquer des dirigeants mondiaux ou des personnalités influentes », a déclaré YouTube.


Le développement rapide de l'IA a favorisé la création et l'adoption généralisée de modèles qui ont évolué rapidement pour créer des vidéos de plus en plus réalistes. Et si de nombreuses plateformes technologiques, dont YouTube, ont généralement adopté la vidéo IA, elles ont également été confrontées à des défis liés aux contenus trompeurs qui diffusent des informations erronées et peuvent être utilisés pour commettre des escroqueries.

Les vidéos IA de personnalités en vue, parfois appelées « deepfakes », ont été particulièrement efficaces pour les escrocs. En outre, YouTube, qui a lancé son outil de détection des ressemblances en octobre 2025, contactera les politiciens et les journalistes présents sur la plateforme, qui pourront alors décider s'ils souhaitent s'inscrire pour utiliser cet outil, a déclaré un porte-parole de la société.

Les participants devront fournir une vidéo d'eux-mêmes ainsi qu...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !