Leur utilité dans la désinformation politique, ou la désinformation en général, en a déjà fait un sujet de controverse. Toutefois, le véritable danger des "deepfakes" se situe en réalité ailleurs. L'étude 2023 State of Deepfakes de Home Security Heroes a révélé que 98 % de tous les deepfakes se retrouvent dans un genre spécifique : le contenu explicite.
Il n'est pas surprenant qu'une technologie capable d'imiter parfaitement l'apparence d'une personne soit utilisée pour produire des vidéos pour adultes, mais le fait que la grande majorité des deepfakes soient utilisés dans ce genre est une source d'inquiétude. 98 % des personnes dont l'image est utilisée dans des deepfakes explicites sont des femmes, mais 48 % des spectateurs sont des hommes. Plus important encore, 74 % des hommes ont déclaré qu'ils ne voyaient rien de mal dans les deepfakes explicites, ou du moins qu'ils ne voyaient aucune raison de se sentir coupables.
Autre statistique alarmante de ce rapport : le nombre de deepfakes en ligne a augmenté de 550 % entre 2019 et 2023, tous sauf quelques-uns étant utilisés dans l'industrie du contenu pour adultes. Les sites spécialisés dans les deepfakes explicites ont reçu un peu moins de 5 millions de visiteurs uniques depuis le début de l'année, mais 7 des 10 sites de streaming vidéo pour adultes les plus populaires les présentaient également.
S'il s'agissait simplement de remplacer les actrices pour adultes par l'IA, le débat serait différent. Bien entendu, la plupart des "deepfakes" explicites n'impliquent pas de consentement. D'innombrables femmes ont été victimes de chantage à l'aide de deepfakes les présentant dans divers scénarios compromettants, et nombre de ces cas peuvent être considérés comme une forme d'agression. Les mineurs ne sont pas non plus à l'abri des deepfakes, comme en témoigne une affaire récente en Espagne impliquant 30 jeunes filles âgées de 12 à 14 ans.
Les femmes étant les principales victimes et près de trois hommes sur quatre ne voyant pas à quel point les "deepfakes" sont contraires à l'éthique, il est plus important que jamais que les gouvernements adoptent des réglementations pour atténuer les dommages psychologiques considérables qu'ils peuvent causer. Malheureusement, pratiquement aucun État n'a adopté de loi concernant les "deepfakes". Ils sont encore moins nombreux à avoir qualifié d'infraction pénale le fait de créer un deepfake explicite sans consentement, ce qui contraint de nombreuses victimes à régler les affaires au civil.
Source : Rapport de Home Security Heroes
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, les résultats de cette étude de Home Security Heroes sont-ils crédibles ou pertinents ?
Voir aussi
La NSA, le FBI et la CISA publient une fiche d'information sur la cybersécurité concernant les menaces liées aux Deepfake
68 % des décideurs informatiques s'inquiètent de la montée en puissance des deepfakes, et 59 % pensent que l'IA augmente le nombre de cyberattaques, d'après une étude d'Integrity360
Le nombre de contenus deepfake en ligne augmente à un rythme annuel de 900 %, d'après le World Economic Forum