IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une nouvelle application d'IA permet de remplacer en quelques clics le visage d'actrices dans les films pornographiques
Par celui d'une femme quelconque à partir d'une simple photo du visage

Le , par Olivier Famien

122PARTAGES

7  0 
Après l’épisode de DeepNude, l’application utilisant l’intelligence artificielle (IA) pour supprimer les vêtements de femmes dans les photos en les faisant paraître nues, des personnes ont trouvé le moyen de pousser la hardiesse encore plus loin en mettant en ligne un site qui permet d’échanger le visage d’une femme avec celle d’une autre figurant dans une vidéo pornographique. Si pour l’application DeepNude, le rejet par le public a été sans équivoque, l’on se demande comment l’auteur de cet outil compte gérer les dérives éventuelles qui pourraient survenir par l’abus de cet outil.

Il est révolu le temps où il fallait disposer de compétences avancées pour réaliser un montage qui permet d’échanger numériquement le visage d’un acteur par un autre dans une scène de vidéo. Avec la technologie deepfake, technique de synthèse multimédia permettant de générer des vidéos truquées en utilisant l’intelligence artificielle, il est maintenant donné à n’importe quel utilisateur sans expertise aucune dans des domaines pointus du montage vidéo et d’effets spéciaux visuels de réaliser des trucages aussi poussés que réalistes dans les vidéos. Si l’avancée technologie facilite à bien des égards la productivité, elle a aussi son revers de la médaille. Sur un site en ligne, il est possible en cliquant sur un simple bouton de remplacer le visage d’une actrice pornographique par celle d’une autre femme, ce qui pourrait faire croire que le visage inséré est l’actrice réelle qui a réalisé la vidéo.

Comment effectuer l’échange de visages à partir du site Web abritant l'outil de génération des vidéos deepfakes pornographiques ?

Pour ce faire, il suffit de téléverser la photo d’un visage et sélectionner la vidéo dans laquelle on souhaite insérer la photo. Dans la majorité des vidéos disponibles, il s’agit de scènes mettant en action des femmes. Seule une poignée de vidéos comportent également des scènes d’hommes, notamment des vidéos pornographiques pour les homosexuels. Après avoir sélectionné la vidéo, vous pouvez visionner un aperçu de quelques secondes de la vidéo comportant l’échange de visages. Pour télécharger la version complète de la vidéo deepfake, il va falloir passer à la caisse. Le site présente l’outil comme un moyen d’explorer les fantasmes sexuels.

Après avoir suivi tout le processus d’échange de visages, une analyse sommaire de la vidéo permet de déclarer que l’on est encore loin du résultat parfait. De nombreux échanges de visages sont évidemment faux avec les visages scintillant et se déformant lorsqu’ils tournent sous différents angles. Mais pour un observateur occasionnel, certains détails sont assez subtils pour ne pas être remarqués, et la trajectoire des deepfakes a déjà montré à quelle vitesse ils peuvent devenir indiscernables de la réalité.

En situation de consentement, remplacer le visage d’une actrice de film pour adultes par un autre de manière consentante n’a rien de problématique. Ces techniques de deepfake pourraient être utilisées pour apporter des corrections ou même faire gagner du temps si une scène devait être refaite. Sur le site qui a mis en ligne cet outil, il est recommandé aux utilisateurs de téléverser leur propre photo.

Quelques inquiétudes et témoignages liés à l’abus des outils permettant de générer des vidéos deepfakes pornographiques sans consentement

Toutefois, la mauvaise foi étant la chose mieux partagée au monde, il n’y a aucun doute à se faire que des petits malins pourraient utiliser cet outil mis en ligne pour faire de mauvaises blagues à de tierces personnes. Encore pis, des personnes pourraient utiliser ce site pour créer des vidéos pornographiques de jeunes filles ou de femmes afin de les harceler ou leur faire du chantage. Dans de tels cas, les conséquences peuvent être aussi bouleversantes que le « ;revenge porn ;», de véritables vidéos intimes filmées ou diffusées sans consentement.

Et même s’il est possible de souligner les incohérences qui peuvent receler ces vidéos deepfakes pornographiques, avoir sa tête dans une vidéo qui circule sur la toile est suffisant pour anéantir la vie d’une personne. En outre, les utilisateurs ne savent pas tous qu’une telle technologie existe et parfois n’ont pas l’œil avisé pour discerner le faux du vrai. En Angleterre, Helen Mort, une écrivaine qui vit à Sheffield, a trouvé des images deepfake d’elle-même sur un site porno il y a deux ans. Ils étaient sur Internet depuis 2017. Après avoir découvert ces images, la première question qu’elle s’est posée est « ;qu’ai-je fait pour mériter cela ;? ;»

Helen Mort, écrivaine victime d’images deepfakes pornographiques


« ;Ce genre d’abus — où les gens déforment votre identité, votre nom, votre réputation et les modifient de manière si violente — vous brise profondément ;», déclare Noelle Martin, une militante australienne qui a été la cible d’une campagne pornographique deepfake. Et les répercussions peuvent rester avec les victimes à vie. Les images et les vidéos sont difficiles à supprimer d’Internet et de nouveaux contenus peuvent être créés à tout moment. « ;Cela affecte vos relations interpersonnelles. Cela vous affecte pour obtenir un emploi. Chaque entretien d’embauche que vous passez, cela pourrait être évoqué ;», affirme Martin. « ;À ce jour, je n’ai jamais réussi à faire retirer les images. Pour toujours, ce sera là-bas. Peu importe ce que je fais ;». Selon Sophie Mortimer, qui gère le service d’assistance britannique Revenge Porn Helpline, une enseignante britannique a perdu son emploi après que de fausses images pornographiques d’elle aient été diffusées sur les réseaux sociaux et portées à l’attention de son école.

Bien que les victimes soient majoritairement les femmes, le fait qu’il est possible de créer des vidéos gays deepfakes n’épargne pas non plus les hommes. Dans 11 pays du monde, avoir des relations sexuelles entre hommes pourrait être puni par la peine de mort. Une personne malveillante qui souhaiterait vous faire du mal pourrait fusionner votre visage avec celui de l’acteur réel dans une vidéo gay et la publier en ligne. Sans discernement, une décision de justice pourrait signer votre arrêt de mort. Mais bon, dans pareil cas, si le juge ne veut pas entendre raison de votre innocence, certains suggèrent pour se défendre de produire une autre vidéo gay deepfake en intégrant le visage du juge et celui l’avocat de la partie adverse. Cela pourra au moins les convaincre. Si les scénarios des plus cyniques aux plus délirants peuvent être imaginés, cela vient toutefois rappeler le danger qui peut se cacher derrière ces technologies deepfakes.

Comment devrait-on traiter ce type d’outil deepfake sur la toile ;? L’autoriser, le baliser ou le censurer ;?

Après que le site ait été contacté à maintes reprises par différents acteurs sur la toile afin de décrier les dégâts qu’un tel outil disponible publiquement pourrait occasionner, le site a publié un avis sur sa page d’accueil indiquant qu’il n’était plus disponible pour les nouveaux utilisateurs. Par contre, les utilisateurs existants peuvent continuer à accéder à leurs vidéos en utilisant leurs identifiants d’accès.

Source : BBC

Et vous ?

Quels commentaires faites-vous de la mise à la disposition du public des outils de génération de deepfakes à partir des vidéos pornographiques ;?

Selon vous, devrait-on imposer des limites pour ces outils deepfakes lorsqu’ils sont utilisés dans certains cas sur la toile ;?

Devrait-on censurer ces outils deepfakes utilisés pour générer des vidéos pornographiques ;? Ou ont-ils également le droit d’exister sur la toile ;?

Voir aussi

GitHub supprime de sa plateforme les versions open source de DeepNude, l’application qui crée des images de femmes nues en quelques secondes
L’IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges, selon une étude
Deepfake : des chercheurs présentent un logiciel qui permet d’éditer le discours d’une vidéo, et faire dire au sujet ce que vous voulez
À l’approche de la présidentielle américaine, Facebook interdit la plupart des deepfake de sa plateforme, mais les politiciens trouvent cette mesure très légère face à la désinformation en ligne
Avatarify, un deepfake qui échange en temps réel votre visage avec celui d’une célébrité, pendant les appels vidéo sur Zoom et Skype

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 20/09/2021 à 10:30
Citation Envoyé par Jipété Voir le message
c'est bien ça ?
Non, si on a les photos nécessaire il est possible de mettre n'importe quel visage sur le corps de n'importe quel personnage humain, dans n'importe quel film.
Mais c'est vraiment le porno qui peut faire le plus de dégâts. (enfin il y a la politique aussi, mais c'est encore autre chose)

Citation Envoyé par Jipété Voir le message
En quoi l'ia intervient-elle dans un processus qui consiste à choisir des films dans un catalogue et des actrices dans un autre, plus un peu de (scripting de) photoshopage ?
Si on regarde une définition de "Deep Fake" :
Deepfake
Le deepfake, hypertrucage, infox vidéo ou vidéotox est une technique de synthèse multimédia reposant sur l'intelligence artificielle.
Et on peut reboucler autrement : deepfake -> deep learning -> machine learning -> artificial intelligence :
Le terme deepfake est un mot-valise formé à partir de deep learning (« apprentissage profond ») et de fake (« faux »).
L'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires.
L'apprentissage automatique (en anglais : machine learning, litt. « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Dites vous qu'Intelligence Artificielle signifie Algorithme "Intelligent" et il n'y a plus de problème.
Si un jour une technologie qui ressemble à l'intelligence humaine apparait il faudra créer un nouveau mot pour la définir.

À l'époque quand on disait que les robots dans les jeux-vidéo étaient des IA ça ne choquait personne :
Video game bot
In video games, a bot is a type of artificial intelligence (AI)–based expert system software that plays a video game in the place of a human.
Artificial intelligence in video games
It was during the golden age of video arcade games that the idea of AI opponents was largely popularized, due to the success of Space Invaders (1978), which sported an increasing difficulty level, distinct movement patterns, and in-game events dependent on hash functions based on the player's input. Galaxian (1979) added more complex and varied enemy movements, including maneuvers by individual enemies who break out of formation. Pac-Man (1980) introduced AI patterns to maze games, with the added quirk of different personalities for each enemy. Karate Champ (1984) later introduced AI patterns to fighting games, although the poor AI prompted the release of a second version.
Et ouais, Blinky, Pinky, Inky et Clyde ont des personnalités différentes.

L'IA ça a toujours été des algorithmes, pourquoi ça doit changer aujourd'hui ?
5  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/09/2021 à 8:10
Citation Envoyé par clorr Voir le message
il faudra encore un peu de temps pour que le grand public en prenne pleinement conscience.
Il faut que les gens deviennent extremement sceptique, il faut qu'à chaque vidéo ils se disent "si ça se trouve c'est un fake"', il faut tout remettre en question.
Je ne sais pas si vous vous rappellez de Colin Powell qui a dit un truc du genre "Regardez je tiens une fiolle, ça veut dire que l'Irak possède des armes de destructions massives" c'était basé sur un mensonge et ça a fait énormemement de morts, dès aujourd'hui des médias et des gouvernements pourraient utiliser des fausses vidéos pour justifier une intervention militaire.

Cela dit ça n'a pas que des mauvais côté, par exemple Benjamin Griveaux va pouvoir mettre le visage d'Alexandra de Taddeo sur le corps d'une actrice pornographique , avant il recevait des vidéos d'elle, maintenant c'est fini.
2  0 
Avatar de JPLAROCHE
Membre éclairé https://www.developpez.com
Le 15/09/2021 à 10:30
Bravo l'IA
2  1 
Avatar de marsupial
Expert confirmé https://www.developpez.com
Le 15/09/2021 à 13:41
Ils n'ont vraiment rien de mieux à faire de leurs neurones.
2  1 
Avatar de clorr
Membre actif https://www.developpez.com
Le 15/09/2021 à 16:57
Cela fait plus d'un siècle que l'on truque des vidéos. Le problème réside plutôt pour moi dans la crédulité de ceux qui confondent une vidéo avec le réel.

Heureusement, le concept de Deepfakes a déjà été pas mal vulgarisé par la presse, mais il faudra encore un peu de temps pour que le grand public en prenne pleinement conscience. A partir de ce moment, cela décrédibilisera complètement ces actes stupides.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 15/09/2021 à 12:40
Citation Envoyé par Olivier Famien Voir le message
Quels commentaires faites-vous de la mise à la disposition du public des outils de génération de deepfakes à partir des vidéos pornographiques ;?
Tant que c'est pour un usage personnel je ne vois pas de problème, par contre si un extrait de vidéo circule là ça peut craindre.

Citation Envoyé par Olivier Famien Voir le message
Selon vous, devrait-on imposer des limites pour ces outils deepfakes lorsqu’ils sont utilisés dans certains cas sur la toile ;?
Ce qui serait chouette ce serait d'avoir besoin de l'autorisation écrite de la personne dont on va utiliser l'image du visage.
Je pense que demander "Excusez-moi mademoiselle, est-ce que je peux, s'il-vous plait, prendre votre visages en photos sous différents angle afin de l'incruster sur une actrice pornographique ?" devrait passer assez facilement

=====
Le bon côté c'est que si une vraie sex tape fuite, il y a toujours moyen de répondre que c'est un deep fake.
0  0 
Avatar de balhrog
Membre régulier https://www.developpez.com
Le 15/09/2021 à 16:20
La règle 34
0  0 
Avatar de jbrosset
Membre à l'essai https://www.developpez.com
Le 18/09/2021 à 11:07
La technologie, capable du meilleur... et du pire.
Ou plutôt : l'esprit humain, capable du meilleur et du pire.
Il faut un cerveau bien malade pour imaginer et réaliser ces choses-là.
Bien loin du bonheur...
0  0 
Avatar de tepaze
Membre régulier https://www.developpez.com
Le 18/09/2021 à 20:49
Le pb c'est le harcèlement. Quand tu as 14 ans, et qu'une fausse vidéo de toi circule... Il ne te reste plus qu'à changer au minimum d'établissement...
0  0 
Avatar de cdubet
Membre averti https://www.developpez.com
Le 20/09/2021 à 8:01
Il faut arreter de voir le mal partout et ces croisades MLF
Le fait de maquiller des photos existe depuis longtemps (rappellez vous la periode stalinienne ou des gens disparaissaient des photos car plus en cour)
On est passé maintenant a la video mais c est la meme chose.
Apres il y a une question de credibilité: Si vous voyez Merkel dans un porno vous allez y croire ?
J irai meme jusqu a dire que c est au contraire un plus: si un jour un porno apparait avec vous dessus (cf rita mitsuko) vous pouvez maintenant clamer que c est un faux !

Sur le plan purement financier, je doute que leur appli soit rentable: qui va payer pour avoir la tete de sa voisine sur une video X ?

PS: sur la veracite de la video, il faut plus que la tete pour que ca soit credible: si votre actrice a une poirtine XXL et vous y mettez la tete de Jane Birkin ca va pas etre tres credible !
0  0