Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une nouvelle application deepfake générée par l'IA créé des images de femmes nues en quelques secondes,
Elle est maintenant supprimée de l'Internet

Le , par Stan Adkens

111PARTAGES

14  0 
Le deepfake repousse les frontières de la falsification. La technologie d'apprentissage machine qu'il utilise a évolué à une vitesse vertigineuse depuis son apparition sur Internet en 2017. La toute dernière application de la technologie a été réalisée par un développeur qui se fait appeler Alberto. C’est un logiciel alimenté par l'intelligence artificielle qui permet à quiconque, sans aucune connaissance technique, de générer facilement des images réalistes de femmes nues simplement en fournissant à l’application une image habillée de la cible visée.

Le logiciel baptisé DeepNude par son développeur échange des vêtements contre des seins nus et autres parties intimes de la femme, selon un article publié par Motherboard le mercredi. DeepNude travaille également sur des images des hommes, mais pas pour exposer le sexe masculin. Lorsque Motherboard l’a essayé sur une image d'un homme, l’application a effectué les mêmes modifications comme s’il s’agissait d’une femme. Avec les images de femmes, Motherboard a rapporté que DeepNude semble fonctionner mieux sur des images où la personne expose déjà une grande partie de la peau. DeepNude est très facile à utiliser et plus rapide à créer que les précédents deepfakes.


Lancée le 23 juin sous la forme d'un site Web qui montre un exemple du fonctionnement du logiciel, DeepNude est le dernier exemple de Deepfake généré par l'IA et utilisé pour créer des images compromettantes et faire honte, harceler et intimider les cibles féminines, même si son créateur dit qu’il l’a créé pour le divertissement des utilisateurs. Le logiciel qui a été repéré pour la première fois par Samantha Cole de Motherboard pouvait être téléchargé gratuitement pour Windows et Linux. La version Windows que Motherboard a testée s'installe et se lance comme n'importe quelle autre application Windows et ne nécessite pas d'expertise technique pour l'utiliser.

Motherboard a rapporté que dans la version gratuite de l'application, les images de sortie sont partiellement recouvertes d'un grand filigrane. Dans une version payante, qui coûte 50 dollars, le filigrane est supprimé, mais un timbre portant la mention « FAKE » est placé dans le coin supérieur gauche, - mais ce « faux » timbre pourrait être facilement enlevé avec Photoshop, par exemple, d’après le magazine.

Katelyn Bowden, fondatrice et PDG de l'organisation Badass, qui milite contre la pornodivulgation, a déclaré à Motherboard :

« C'est absolument terrifiant ». « Maintenant, n'importe qui peut se retrouver victime d’une pornodivulgation, sans jamais avoir pris une photo de nudité. Cette technologie ne devrait pas être accessible au public », a-t-elle ajouté.

Danielle Citron, professeure de droit à la faculté de droit Carey de l'Université du Maryland, qui a récemment témoigné devant le Congrès au sujet de la menace du deepfake, a également déclaré à Motherboard qu’il s'agit là d'une « invasion de la vie privée sexuelle », en parlant de DeepNude qui est vendu au grand public. « Oui, ce n'est pas votre vrai vagin, mais... les autres pensent qu'ils vous voient nue », a-t-elle dit avant d’ajouter : « Comme me l'a dit une fausse victime, des milliers de personnes l'ont vue nue, elle avait l'impression que son corps n'était plus le sien ».

La divulgation d’applications deepefake se succède depuis quelque temps. Pas plus tard qu’au début de ce mois de juin, les scientifiques de l'Université de Stanford, de la Max Planck Institute for Informatics, de l'Université de Princeton et d'Adobe Research ont présenté un nouveau logiciel qui utilise l’apprentissage machine pour permettre aux utilisateurs de modifier la transcription du texte d’une vidéo afin d’ajouter, de supprimer ou de modifier les mots sortant de la bouche de quelqu'un. La multiplication de ce type d’applications alimentées par l’IA montre comment il est maintenant facile de créer des faux réalistes, même si la qualité de la production est variée pour l’instant.

C’est le cas avec l’application DeepNude. Motherboard l'a testée sur plus d'une douzaine d'images de femmes et d'hommes, dans différents états d'habillement – d’entièrement vêtus aux en maillots de bain – et avec une variété de couleur de peau. Les résultats ne sont certainement pas photoréalistes, et lorsqu'on les examine de près, les images sont faciles à repérer comme étant fausses. La peau créée par l'IA est floue et pixélisée. Mais le processus fonctionne mieux sur des images haute résolution et lorsque la cible porte des vêtements qui expose une grande partie de la peau comme un maillot de bain. Selon Motherboard, DeepNude a échoué avec certaines photographies qui utilisaient des angles, des éclairages ou des vêtements bizarres qui semblent perturber le réseau neuronal qu'il utilise.

Comment l’application DeepNude a-t-elle été conçue ?

Le développeur de l’application a adressé un courriel à Motherboard dans lequel il a expliqué comment DeepNude a été conçu. Voici la déclaration du développeur que Motherboard a rapporté :

« le logiciel est basé sur pix2pix, un algorithme open source développé par les chercheurs de l'Université de Californie à Berkeley en 2017. Pix2pix utilise des réseaux adverses génératifs (GANs), qui fonctionnent en formant un algorithme sur un énorme ensemble d'images – dans le cas de DeepNude, plus de 10 000 photos de femmes nues, selon le programmeur. Cet algorithme est similaire à ce qui est utilisé dans les vidéos deepfake, et à ce que les voitures autonomes utilisent pour « imaginer » des scénarios routiers ».

Selon le développeur, l'algorithme ne fonctionne qu'avec les femmes, parce que les images de femmes nues sont plus faciles à trouver en ligne, mais il espère aussi créer une version masculine. Mais maintenant qu’il a dû retirer son logiciel de l’Internet sous la pression des critiques, les futures versions ne seront pas divulguées.

Alberto a continué à décrire son logiciel en disant : « Les réseaux sont multiples, car chacun a une tâche différente : localiser les vêtements. Masquer les vêtements. Précisez les positions anatomiques. Rendre l’image ». « Tout cela ralentit le traitement (30 secondes dans un ordinateur normal), mais cela peut être amélioré et accéléré à l'avenir », a-t-il ajouté.

Le créateur de l'application a dit à Motherboard qu'il était inspiré par les souvenirs d'anciennes publicités de bandes dessinées pour « X-ray specs », qui promettaient qu'elles pourraient être utilisées pour voir à travers les vêtements des gens. « Comme tout le monde, j'étais fasciné par l'idée qu'elles pouvaient vraiment exister et ce souvenir est resté », a dit Alberto.

Dans son courriel, il a aussi dit qu’il est « un passionné de technologie » plutôt qu’ « un voyeur », et motivé par la curiosité et l'enthousiasme pour l'IA, ainsi que par le désir de voir si ses expériences lui permettraient de faire un « retour économique ». Il a dit : « Récemment, également en raison d'échecs antérieurs (autres Startups) et de problèmes économiques, je me suis demandé si je pouvais avoir un retour économique de cet algorithme. C'est pourquoi j'ai créé DeepNude ». Alberto s’est appuyé sur des raisons économiques pour lancer son application qui déshabille les femmes.

Il s’est tout de même penché sur le potentiel de dommages causés par ce logiciel pendant qu’il travaillait sur son projet, d’après son courriel à Motherboard, mais il a finalement décidé que ce n'était pas un obstacle. « Je me suis aussi dit : la technologie est prête (à la portée de tous) », a dit Alberto. « Donc si quelqu'un a de mauvaises intentions, avoir DeepNude ne change pas grand-chose... Si je ne le fais pas, quelqu'un d'autre le fera dans un an », a-t-il ajouté. Pendant ce temps la technologie se sophistique dangereusement.

S’adressant à un site Web d’information américain, Alberto a dit que l'application avait été créée pour le plaisir et qu'il ne s'attendait pas à ce qu'elle devienne si populaire. Il a comparé le logiciel à Photoshop, en disant qu’il peut être utilisé pour obtenir les mêmes résultats que DeepNude « après une demi-heure de tutoriel sur Youtube ». Il a également ajouté que si les gens commençaient à utiliser le logiciel à des fins malveillantes, « nous l'abandonnerions à coup sûr ».

Et Alberto a effectivement abandonné son projet – la vente de DeepNude au grand public –, seulement quatre jours après le lancement de l’application. Il a annoncé jeudi qu'il était en train de supprimer le logiciel, après une réaction brutale et virale du public contre la façon dont son application dégrade l’image de la femme. Après la publication de l’article de Motherboard, le serveur de téléchargement l'application, s’est planté.

Jeudi après-midi, le compte Twitter de DeepNude a annoncé que l'application était supprimée et aucune autre version ne sera publiée et personne d'autre ne sera autorisé à utiliser l'application. « Nous avons créé ce projet pour le divertissement des utilisateurs il y a des mois ». « Nous pensions faire quelques ventes chaque mois de façon contrôlée... Nous n'avons jamais pensé qu'il deviendrait viral et que nous ne pourrions pas contrôler le trafic », a-t-il ajouté dans une déclaration jointe au tweet.


Alberto a également dit dans son communiqué de renoncement : « Nous ne voulons pas faire de l'argent de cette façon. Certaines copies de DeepNude seront sûrement partagées sur le web, mais nous ne voulons pas être ceux qui les vendront ».

L’évolution du processus de la règlementation sur la technologie de deepfake

Pendant que la technologie du deepfake se développe chaque jour et que les usages se diversifient, la discussion sur ses méfaits potentiels se concentre uniquement sur la désinformation et la propagande politique, son utilisation à d’autres fins comme pour cibler les femmes, y compris l’utilisation dans l’industrie du porno, demeure dans une zone d'ombre juridique depuis que la technologie fait son chemin. Les avocats affirmant que les nus générés par l'IA pourraient constituer de la diffamation, mais que les retirer d'Internet constituerait une violation possible du Premier Amendement. Une exception à cela pourrait être si la technologie est utilisée pour créer des images nues de mineurs - quelque chose dont DeepNude semble capable de faire.

En février dernier, un sénateur a proposé un projet de loi prohibant l'utilisation de la technologie deepfake, parce que les sénateurs pensent le deepfake pourrait être utilisées dans le cadre de campagnes de désinformation plus larges par exemple dans l’optique d’influencer des élections en diffusant des fake news qui pourraient alors paraître plus crédibles.

Cependant, à l'heure actuelle, les politiciens du monde entier commencent à envisager les préjudices potentiels causés par les deepfakes, y compris aux États-Unis, toutefois, une telle législation sera lente à se mettre en place, la principale priorité des législateurs étant d'arrêter la diffusion de la désinformation politique.

Source: Motherboard (1 & 2), Tweet de DeepNude

Et vous ?

Qu’en pensez-vous ?
Quel commentaire faites-vous de la facilité avec laquelle quiconque peut créer une image de femme nue ?
Que pensez-vous du développement rapide de la technologie du deepfake ?
Pensez-vous qu’une législation générale sur les deepfakes verra le jour bientôt ?

Lire aussi

Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo, et faire dire au sujet ce que vous voulez
Les législateurs US estiment que la technologie deepfake constitue une menace à la sécurité nationale, et appellent à des contremesures
Un sénateur propose un projet de loi prohibant l'utilisation de la technologie deepfake, si elle venait à servir des buts frauduleux
L'IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges, selon une étude
Ce Deepfake de Zuckerberg teste les règles de suppression de vidéos de Facebook, alors qu'il avait déclaré qu'une telle vidéo resterait en ligne

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 10/07/2019 à 11:25
GitHub supprime de sa plateforme les versions open source de DeepNude,
l'application qui crée des images de femmes nues en quelques secondes

GitHub a récemment banni de sa plateforme le code de DeepNude, l'application qui utilisait l'IA pour créer des images nues de femmes. Le développeur de l’application avait expliqué que « le logiciel est basé sur pix2pix, un algorithme open source développé par les chercheurs de l'Université de Californie à Berkeley en 2017. Pix2pix utilise des réseaux adverses génératifs (GAN), qui fonctionnent en formant un algorithme sur un énorme ensemble d'images – dans le cas de DeepNude, plus de 10 000 photos de femmes nues, selon le développeur. Cet algorithme est similaire à ce qui est utilisé dans les vidéos deepfake, et à ce que les voitures autonomes utilisent pour “imaginer” des scénarios routiers ».

DeepNude était à l'origine une application payante qui créait des images nues non consensuelles de femmes utilisant une technologie similaire à celle de « deepfake » pour supprimer les vêtements des femmes.

Dans la version gratuite de l'application, les images de sortie sont partiellement recouvertes d'un grand filigrane. Dans une version payante, qui coûte 50 dollars, le filigrane est supprimé, mais un timbre portant la mention « FAKE » est placé dans le coin supérieur gauche, timbre qui pourrait être facilement enlevé avec Photoshop, par exemple.

Katelyn Bowden, fondatrice et PDG de l'organisation Badass, qui milite contre la pornodivulgation, a déclaré : « C'est absolument terrifiant ». « Maintenant, n'importe qui peut se retrouver victime d’une pornodivulgation, sans jamais avoir pris une photo de nudité. Cette technologie ne devrait pas être accessible au public », a-t-elle ajouté.

Danielle Citron, professeure de droit à la faculté de droit Carey de l'Université du Maryland, qui a récemment témoigné devant le Congrès au sujet de la menace du deepfake, a également déclaré qu’il s'agit là d'une « invasion de la vie privée sexuelle », en parlant de DeepNude qui est vendu au grand public. « Oui, ce n'est pas votre vrai vagin, mais... les autres pensent qu'ils vous voient nue », a-t-elle dit avant d’ajouter : « Comme me l'a dit une fausse victime, des milliers de personnes l'ont vue nue, elle avait l'impression que son corps n'était plus le sien ».

Suite à la réaction négative du public et des médias, l'équipe de développement l'a fermée, reconnaissant que « la probabilité que les gens l'utilisent de manière abusive est trop élevée ». C’est sur son compte Twitter que DeepNude a annoncé que l'application était supprimée et aucune autre version ne sera publiée et personne d'autre ne sera autorisé à utiliser l'application. « Nous avons créé ce projet pour le divertissement des utilisateurs il y a des mois ». « Nous pensions faire quelques ventes chaque mois de façon contrôlée... Nous n'avons jamais pensé qu'il deviendrait viral et que nous ne pourrions pas contrôler le trafic », a-t-il ajouté dans une déclaration jointe au tweet.


GitHub supprime les copies de DeepNude

Le développeur a également dit dans son communiqué de renoncement : « Nous ne voulons pas faire de l'argent de cette façon. Certaines copies de DeepNude seront sûrement partagées sur le web, mais nous ne voulons pas être ceux qui les vendront ».

Comme il s’en doutait, des copies de l’application étaient toujours disponibles en ligne, y compris sur GitHub. Aussi, en fin de semaine, l'équipe DeepNude a décidé de télécharger l'algorithme principal (mais pas l'interface réelle de l'application) sur la plateforme GitHub. « L'ingénierie inverse de l'application était déjà sur GitHub. Cacher le code source n'a plus de sens », a écrit l'équipe sur une page désormais supprimée. « DeepNude utilise une méthode intéressante pour résoudre un problème typique d'intelligence artificielle. Il pourrait donc être utile aux chercheurs et aux développeurs travaillant dans d'autres domaines tels que la mode, le cinéma et les effets visuels ».

« Nous ne surveillons pas de manière proactive le contenu généré par les utilisateurs, mais nous enquêtons activement sur les informations faisant état d'abus. Dans ce cas, nous avons désactivé le projet, car nous avons constaté qu'il contrevenait à notre politique d'utilisation acceptable », a déclaré un porte-parole de GitHub. « Nous n'acceptons pas l'utilisation de GitHub pour la publication de contenu sexuellement obscène et interdisons un tel comportement dans nos Conditions d'utilisation et notre règlement de la communauté ».

La section « Sexuellement obscène » des Règles de la communauté de GitHub stipule : « Ne publiez pas de contenu pornographique. Cela ne signifie pas que toute nudité ou tout code et contenu liés à la sexualité est interdit. Nous reconnaissons que la sexualité fait partie intégrante de la vie et le contenu sexuel à caractère non pornographique peut faire partie de votre projet, ou peut être présenté à des fins éducatives ou artistiques. Nous n'autorisons pas les contenus sexuels obscènes ni ceux pouvant impliquer l'exploitation ou la sexualisation de mineurs ».

Plusieurs copies de l'application DeepNude ont ainsi été supprimées. Le fichier README de l'un des dépôts indique : « il s'agit d'une réimplémentation open source en cours de développement de DeepNude basée sur le reverse engineering de l'original ». Un autre a déclaré : « ce référentiel ne contient que l'algorithme principal, pas l'interface utilisateur ».


Un concept qui n'est pas nouveau

DeepNude n’a pas inventé le concept de fausses photos de nu, c’est quelque chose qui est rendu possible par des logiciels comme Photoshop, entre autres méthodes, depuis des décennies. La technologie n’étant encore qu’à ses débuts, elle donne de meilleurs résultats avec des photos où le sujet portait déjà quelque chose comme un bikini. Néanmoins, même dans ces circonstances, certains médias qualifient les photos dénudées de « passablement réalistes ». Toutefois, contrairement à Photoshop, elles pourraient être produites par quiconque n’ayant aucune compétence technique ou artistique.

Les politiciens et les commentateurs ont déjà sonné l’alarme sur l’impact politique de deepfakes. DeepNude est une utilisation dérivée de cette technologie qui peut constituer une menace pour les femmes étant donné que certaines personnes malintentionnées pourraient se servir d’images nues factices pour les harceler. Prenant le taureau par les cornes, l’État de Virginie a placé l'utilisation de deepfakes pour le harcèlement aux côtés d'autres formes de « reveng porn ».

Rien de tout cela ne peut empêcher les copies de DeepNude d'apparaître en ligne, même si la décision de GitHub pourrait rendre l'application et son algorithme plus difficile à trouver. D’ailleurs, suite à la décision de GitHub, certaines plateformes ont décidé d’arrêter la diffusion d'outils similaires.

Source : GitHub Community Guidelines

Voir aussi :

Que pensez-vous de cette décision ? Modération pertinente et juste ou acte de couardise basée sur une moralité obsolète ?

Voir aussi :

L'IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges, selon une étude
Ce Deepfake de Zuckerberg teste les règles de suppression de vidéos de Facebook, alors qu'il avait déclaré qu'une telle vidéo resterait en ligne
Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo, et faire dire au sujet ce que vous voulez
16  0 
Avatar de onilink_
Membre expérimenté https://www.developpez.com
Le 10/07/2019 à 12:20
DeepNude est une utilisation dérivée de cette technologie qui peut constituer une menace pour les femmes étant donné que certaines personnes malintentionnées pourraient se servir d’images nues factices pour les harceler.
Ou a l'inverse, plus ce genre de technologies seront accessibles, et moins ce genre d'image seront considéré comme potentiellement vrais.
Plutôt que mettre la poussière sur le tapis, il faudrait surtout que le plus de gens possibles soient au courant...
Je pense que les générations actuelles sont déjà bien baignées dans ce genre de choses (l'édition d'image, le "photoshopage", tout le monde ayant accès a un ordinateur ou a un téléphone sait que ça existe).

Bannir ce genre de technos de github, a mon avis, va faire plus de mal que de bien, car ça va créer de la réactance, et pousser plus de personnes a essayer de le faire (et probablement mieux).
11  0 
Avatar de 7gyY9w1ZY6ySRgPeaefZ
Expert confirmé https://www.developpez.com
Le 28/06/2019 à 16:25
Évidemment, personne ne se doutait que ce genre d'application allait dégénérée...
7  0 
Avatar de TheLastShot
Membre extrêmement actif https://www.developpez.com
Le 29/06/2019 à 12:39
@Neckara: Quand on parle de pédophile c'est plus généralement lorsqu'il y a attirance pour les jeunes enfants, pas des adolescents qui ont passé la puberté. Et effectivement la "majorité sexuelle" change selon les pays, mais comme tu peux le constaté le minimum d'après tes source est de 12, et même si légalement ils sont "majeur sexuellement" au niveau de la loi ça peut rester mal vu (genre en France c'est 15 ans si je ne me trompe, mais ça reste quand même mal accepté en dessous de 18). Et je n'ai pas connaissance d'un pays où l'attirance pour les enfants non pubères est accepté (et c'est généralement là qu'on parle de pédophilie).

Après pour le mot "trouble" je l'ai utilisé principalement pour dire qu'ils avaient une attirance qui n'était pas accepté (comme les gay autrefois je disais), mais peut-être qu'un jour cette attirance sera un peu plus admise (et je parle bien de l'attirance, parce que s'il y a acte c'est plus compliqué (il y a notion de consentement de l'enfant (bon en cas dans viol/attouchement/etc., enfant ou pas, c'est un crime, ça c'est clair, mais en dehors de ça il est encore peu admis qu'un enfant peu donner un réel consentement, car il ne serait pas forcément conscient de la chose (personnellement je pense que c'est plus compliqué que ça et que ça dépend des enfants... perso j'avais déjà une libido au primaire et je savais déjà (et j'étais pas la seule) ce qu'était une relation sexuelle ('fin dans les grandes lignes hein, je connaissais pas le BDSM non plus)). Et dans ce cas, comme tu l'as dis c'est surtout la société qui nous dis "c'est mal", donc si ça finit par accepté ce ne sera plus forcément considéré comme un trouble.

pour ce qui est de
Nous sommes tous d'ailleurs plus ou moins pédophiles
Je ne sais pas trop... C'est vrai que quand on fait des analyse statistiques sur une caractéristique quelconque (QI, QE, etc.) on a toujours une belle courbe de Gauss, donc peut-être que la pédophilie n'échappe pas à cette règle. Et même on pourra imaginer que cette attirance (comme tous les autres) évolue au cours du temps, et ce plus ou moins selon la personne (après tout il serait normal d'être "pédophile" quand on est soi-même enfant, et qu'après cette attirance évolue, plus ou moins selon les personnes).

Soyons sérieux si un "trouble" touche tout un pays ou toute une civilisation, on peut difficilement le qualifier de "trouble".
Ca par contre c'est, a priori, faux. Par exemple il est admis que tous les individus souffrent, plus ou moins, de névrose (il en existe plusieurs, la plus répandu me semble-t-il est la névrose phobique par exemple), qui est un trouble (je n'ai pas de source à fournir sur le sujet, je tiens ça d'une ancienne amie qui était étudiante en psychologie (après la psychologie c'est vaste, changeant (Adieu Freud) et compliqué, donc on peut ne pas être d'accord).
5  0 
Avatar de TheLastShot
Membre extrêmement actif https://www.developpez.com
Le 10/07/2019 à 13:07
Citation Envoyé par Aiekick Voir le message
au fond des que quelqu'un aura sa photo en ligne a poil volé ( comme le revenge pron), tout le monde pourra dire c'est pas moi c'est un fake. c'est pas si mal au fond non ?
Oui quand on vit dans un monde de bisounoursça pourrait marcher... Dans la réalité, fake ou pas, ça te restera collé à ta peau, comme n'importe quel fake.
5  0 
Avatar de Steinvikel
Membre expérimenté https://www.developpez.com
Le 28/06/2019 à 17:43
sinon... il résoudrait enfin la problématique des sites web pédopornographiques, qui permettrait à ces personnes de ne plus dépendre du trafic d'enfants pour alimenter leur vice.
4  0 
Avatar de JackIsJack
Membre averti https://www.developpez.com
Le 28/06/2019 à 15:51
"Si je ne le fais pas, quelqu'un d'autre le fera dans un an"

Ça c'est l'argument imparrable de toutes les mauvaises actions.
4  1 
Avatar de Neckara
Expert éminent sénior https://www.developpez.com
Le 28/06/2019 à 17:14
contre la façon dont son application dégrade l’image de la femme.


Il ne dégrade pas l'image, il l'améliore en retirant le superflu. </troll>

Lorsque Motherboard l’a essayé sur une image d'un homme, l’application a effectué les mêmes modifications comme s’il s’agissait d’une femme.
Je veux voir cela.

Mais maintenant qu’il a dû retirer son logiciel de l’Internet sous la pression des critiques, les futures versions ne seront pas divulguées.
This is why we can't have nice things.
4  1 
Avatar de melka one
Membre éprouvé https://www.developpez.com
Le 28/06/2019 à 20:12
Qu’en pensez-vous ?
le logiciel devrait etre distribué gratuitement ce qui aura par la suite l'effet que plus personne ne saura distingué le vrais du faux et comme ça les victimes de vengeance pourraient suite a la divulgation de photo intime dire qu'il s'agit d'un montage ce qui mettra une fin au vengeance, chantage et autres.
3  0 
Avatar de pierre-y
Membre éprouvé https://www.developpez.com
Le 29/06/2019 à 8:41
Les plages de nudiste vont de se faire classer deepfake en moins de deux à ce rythme.

J'ai essayéet il ma collé une paire de sein . Ils étaient jolie mais quand même.
2  0