Le FBI a mis en garde lundi contre l'utilisation croissante de l'intelligence artificielle pour générer de fausses photos et vidéos dont le contenu est explicite. Les malfaiteurs exigent alors un paiement des personnes ciblées, parmi lesquelles des mineurs et des adultes non consentants, si elles ne veulent pas voir ces montages se répandre sur les réseaux sociaux. Elles prennent le soin de leur rappeler que ces images / vidéos pourront leur causer du tort, aussi bien auprès de leurs proches que dans leur environnement professionnel.La sextorsion est une forme de chantage qui se produit quand une personne menace de partager ou de publier des contenus privés sensibles à moins que vous ne lui envoyiez des images érotiques, que vous consentiez à des actes sexuels ou que vous lui envoyiez de l’argent. C’est un crime grave qui peut toucher aussi bien des adolescents que des adultes. Les sextorqueurs utilisent souvent de faux profils sur les réseaux sociaux ou des techniques d’ingénierie sociale pour gagner la confiance de leurs victimes et leur extorquer du contenu compromettant.
Dans certains cas, les images en possession des escrocs sont réelles et ont été obtenues de quelqu'un que la victime connaît ou d'un compte qui a été piraté. D'autres fois, les escrocs prétendent seulement avoir du matériel explicite sans fournir aucune preuve.
Cependant, avec les avancées en matière d'intelligence artificielle, ces cybercriminels ont encore moins d'effort à fournir.
Un deepfake - la contraction des termes anglais deep learning (apprentissage profond) et fake (feint, truqué) - est une technique de synthèse d'images basée sur l'intelligence artificielle. Les méthodes actuelles utilisées deviennent incroyablement sophistiquées et permettent déjà de créer des fausses vidéos difficilement identifiables en tant que telles. Le deepfake est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. La technologie est en développement et des chercheurs continuent d’améliorer les méthodes qui contribueront certainement à révolutionner certains secteurs d’activité, mais qui ne manqueront, peut-être, pas de se retrouver, comme une arme, entre les mains des personnes malveillantes.
Sans surprise, l’une des premières utilisations de deepfake a été vue dans l’industrie porno, où des visages ont été superposés à d’autres.
Les deepfake au service des cybercriminels
Ces derniers mois, a expliqué le FBI dans une alerte publiée lundi, l'utilisation de l'IA pour générer de fausses vidéos qui semblent montrer de vraies personnes engagées dans des activités sexuellement explicites a augmenté.
« Le FBI continue de recevoir des rapports de victimes, y compris des enfants mineurs et des adultes non consentants, dont les photos ou vidéos ont été modifiées en contenu explicite », ont écrit des responsables. « Les photos ou vidéos sont ensuite diffusées publiquement sur les réseaux sociaux ou sur des sites pornographiques dans le but de harceler les victimes ou de réaliser des programmes de sextorsion ».
La plupart des offres de deepfake incluent au moins ostensiblement des protections conçues pour empêcher les abus de deepfake, par exemple, en utilisant une vérification intégrée conçue pour empêcher le programme de fonctionner sur des « supports inappropriés ». Dans la pratique, ces garde-fous sont souvent faciles à contourner, et il existe des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
Pensez-vous que ce projet de loi est crédible ou pertinent ?