Un deepfake - la contraction des termes anglais deep learning (apprentissage profond) et fake (feint, truqué) - est une technique de synthèse d'images basée sur l'intelligence artificielle (IA). Les méthodes actuelles utilisées deviennent incroyablement sophistiquées et permettent déjà de créer des fausses vidéos difficilement identifiables en tant que telles. Le deepfake est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique.
Dans un rapport de 2023, le FBI a mis en garde contre l'utilisation croissante de l'IA pour générer de fausses photos et vidéos dont le contenu est explicite. Les malfaiteurs exigent alors un paiement des personnes ciblées, parmi lesquelles des mineurs et des adultes non consentants, si elles ne veulent pas voir ces montages se répandre sur les réseaux sociaux. Elles prennent le soin de leur rappeler que ces images / vidéos pourront leur causer du tort, aussi bien auprès de leurs proches que dans leur environnement professionnel.
Face à la prolifération de cette menace, les législateurs sud-coréens ont adopté une loi interdisant la possession et le visionnage d'images et de vidéos sexuellement explicites de type "deepfake". La nouvelle loi a été adoptée le 26 septembre par l'Assemblée nationale sud-coréenne. Il ne manque plus que la signature du président Yoon Suk Yeol pour qu'elle entre en vigueur. Selon les termes du nouveau projet de loi, toute personne qui achète, conserve ou regarde ce type de matériel est passible d'une peine de prison pouvant aller jusqu'à trois ans ou d'une amende pouvant atteindre l'équivalent de 20 300 euros.
En Corée du Sud, il est déjà illégal de créer un faux matériel sexuellement explicite dans l'intention de le distribuer. Les contrevenants sont passibles d'une peine pouvant aller jusqu'à cinq ans de prison ou d'une amende d'environ 34 000 euros en vertu de la loi sur la prévention de la violence sexuelle et la protection des victimes. Si la nouvelle législation est promulguée, la peine maximale pour le délit de création de deepfake pornographique sera portée à sept ans, que le créateur ait eu ou non l'intention de distribuer les images.
Ces dernières années, l'échange d'images sexuellement explicites manipulées par l'IA et de deepfakes a suscité l'indignation du public en Corée du Sud. En août 2024, les autorités ont lancé une enquête sur ce type de contenu qui aurait été partagé via des salons de discussion sur l'application de messagerie Telegram. L'enquête sur Telegram a été annoncée peu de temps après que le PDG de la société technologique, Pavel Durov, a été inculpé par les autorités françaises pour de multiples délits, y compris l'allégation selon laquelle sa plateforme a été utilisée pour la propagation de matériel d'abus sexuels sur des enfants.
Une enquête a révélé que les visages de plusieurs diplômées de l'université nationale de Séoul étaient apparus sur des deepfakes sexuellement explicites produits et distribués par des hommes avec lesquels elles avaient étudié. "J'ai été choquée de voir à quel point le processus était systématique et organisé", a déclaré l'enquêteur. "La chose la plus horrible que j'ai découverte est un groupe d'élèves mineurs d'une école [pour partager du contenu] qui comptait plus de 2 000 membres."
La diffusion de ce type d'images parmi les jeunes en Corée du Sud semble être un problème très répandu. L'agence de presse nationale sud-coréenne Yonhap a rapporté que 387 personnes ont été arrêtées en 2024 seulement pour des délits liés à des contenus sexuels truqués, dont 80 % d'adolescents, en citant des données de la police.
Autre incident, de fausses images explicites de l'icône de la pop Taylor Swift se sont rapidement répandues sur la plateforme de médias sociaux X d'Elon Musk au début de l'année 2024, attirant des millions de vues et incitant X (anciennement Twitter) à bloquer temporairement les recherches sur l'artiste en janvier.
En mai, deux sénateurs américains ont cosigné un projet de loi bipartisan visant à réprimer la diffusion en ligne de fausses images intimes non consensuelles. La législation propose des sanctions comprenant des amendes et jusqu'à deux ans de prison, ainsi que des sanctions civiles pouvant aller jusqu'à 150 000 dollars.
Pendant ce temps, le gouverneur de Californie a signé 9 projets de loi réglementant les contenus générés par l'IA, pour répondre aux risques liés aux "deepfakes". Deux projets de loi concernent les acteurs et les interprètes, trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA et quatre projets de loi visent à règlementer l'utilisation de l'IA dans les campagnes électorales.
Et vous ?
Pensez-vous que ce projet de loi est crédible ou pertinent ?
Quel est votre avis sur le sujet ?
Voir aussi :
Telegram s'est conformé à la demande des autorités en Corée du Sud de retirer certains contenus pornographiques "deepfake" et s'est excusé pour son manque de réponses aux crimes sexuels numériques
Le Royaume-Uni envisage de criminaliser la création d'images deepfake sexuellement explicites. Les contrevenants s'exposent à « des poursuites judiciaires et à une amende illimitée »
"Vous ne pouvez pas croire toutes les vidéos que vous voyez", selon Brad Smith, vice-président de Microsoft. Il explique comment lutter contre le contenu abusif de l'IA et les deepfakes malveillants