
Si vous regardez les images présentées sur le site Web ThisPersonDoesnotExist.com (cette personne n’existe pas), vous pouvez penser être tombé sur des portraits aléatoires de lycée ou des photos issues d’une autre source. Pourtant, chaque photo sur le site a été créée en utilisant un type spécial d'algorithme d'intelligence artificielle appelé generative adversarial network (GAN, ou, en français, réseau antagoniste génératif).
Chaque fois que le site est rafraîchi, une image débordant de réalisme présente le visage d’une personne. Phillip Wang, ingénieur en logiciel chez Uber, a créé la page pour démontrer les capacités du GAN, puis l'a publiée sur le groupe public "Intelligence artificielle et apprentissage en profondeur".
Le code sous-jacent qui a rendu cela possible, intitulé StyleGAN, a été écrit par Nvidia et fait l'objet d'un article qui n'avait pas encore été approuvé par des pairs. Ce type de réseau de neurones a le potentiel de révolutionner la technologie du jeu vidéo et de la modélisation 3D, mais, comme presque tout type de technologie, il pourrait également être utilisé à des fins plus sinistres. Rappelons par exemple que les deepfakes, ou des images générées par ordinateur superposées à des images ou des vidéos existantes, peuvent être utilisés pour diffuser de faux récits d’actualité ou d’autres canulars. C’est donc dans un but de sensibilisation que Wang a choisi de faire cette page Web.

Envoyé par
Phillip Wang
Récemment, un groupe de chercheurs talentueux de Nvidia a publié un réseau antagoniste génératif à la pointe de la technologie, StyleGAN.
J'ai décidé de puiser dans mes propres poches et de sensibiliser le public à cette technologie.
Les visages sont les éléments les plus importants de notre connaissance, alors j'ai décidé de mettre en place ce modèle préentraîné spécifique. Leur groupe de recherche a également inclus des modèles de préentraînement pour les chats, les voitures et les chambres dans leur référentiel, que vous pouvez immédiatement utiliser.
Chaque fois que vous actualisez le site, le réseau génère une nouvelle image faciale à partir d'un vecteur à 512 dimensions.
Vous pouvez en apprendre davantage sur l’architecture réseau en jetant un coup d’œil au résumé qu'un ami a gentiment passé du temps à rédiger.
Comment fonctionnent les GAN ?S’il fallait simplifier, nous pourrions dire que le GAN implique que deux réseaux travaillent l’un contre l’autre. Le premier va être nourri en données brutes qu’il va décomposer. À partir de ces données, il va tenter de créer une image. Il va ensuite soumettre cette image à un autre réseau qui, lui, n’a que des photos ou images réelles dans sa base de données. Ce deuxième réseau va alors juger de l’image et va informer le premier de son jugement. Si l’image ne ressemble pas au résultat attendu, le premier algorithme va recommencer le processus. Si le résultat correspond, il va être informé qu’il est sur la bonne voie et finir par comprendre ce qu’est une bonne image. Une fois qu’il est suffisamment entraîné, il peut en produire à la chaîne.
StyleGAN, l'implémentation TensorFlow officiellePour ceux d'entre vous qui se sont demandé si l'IA est capable de faire des variantes d'une même personne, la réponse est
oui. En effet, sur le dépôt officiel de StyleGAN, technologie dont Phillip Wang s'est servi, l'image ci-dessous nous indique que « Ces personnes ne sont pas réelles - elles ont été produites par notre générateur, ce qui permet de contrôler différents aspects de l'image »


Envoyé par
Résumé
Nous proposons une architecture génératrice alternative pour les réseaux antagonistes génératifs, empruntant à la littérature sur le transfert de style. La nouvelle architecture aboutit à une séparation automatiquement apprise et non supervisée des attributs de haut niveau (par exemple, la pose et l’identité lorsqu’ils sont formés sur des visages humains) et à une variation stochastique des images générées (par exemple, des taches de rousseur, des cheveux) et contrôle spécifique de la synthèse. Le nouveau générateur améliore l'état de l'art en termes de métriques de qualité de distribution traditionnelles, conduit à des propriétés d'interpolation manifestement meilleures et permet également de mieux démêler les facteurs de variation latents. Pour quantifier la qualité d'interpolation et le démêlage, nous proposons deux nouvelles méthodes automatisées applicables à toute architecture de générateur. Enfin, nous introduisons un nouvel ensemble de données de visages humains extrêmement varié et de grande qualité.
Dans ce dépôt, l'équipe de NVidia a mis à disposition des ressources pour permettre la génération d'images. En dehors du jeu de données Flickr-Faces-HQ, tous les matériaux de StyleGAN sont sous licence Creative Commons BY-NC 4.0 : vous pouvez donc utiliser, redistribuer et adapter le matériel à des fins non commerciales, à condition de donner le crédit voulu en citant l'article de NVidia et en indiquant les modifications que vous avez apportées.
Voici les recommandations système de NVidia :
- Linux et Windows sont pris en charge, mais nous recommandons vivement Linux pour des raisons de performances et de compatibilité.
- Installation de Python 3.6 64 bits. Nous recommandons Anaconda3 avec numpy 1.14.3 ou une version plus récente.
- TensorFlow 1.10.0 ou une version plus récent avec prise en charge du processeur graphique.
- Un ou plusieurs GPU haut de gamme avec au moins 11 Go de DRAM. Nous recommandons NVIDIA DGX-1 avec 8 GPU Tesla V100.
- Pilote NVIDIA 391.35 ou une version plus récente, CUDA Toolkit 9.0 ou une version plus récente, NDDN 7.3.1 ou une version plus récente.
Des exemples d'utilisation (basique et avancée) sont fournies. Une fois exécuté, le script télécharge un générateur StyleGAN pré-formé à partir de Google Drive et l'utilise pour générer une image.
Source :
StyleGANEt vous ?
Qu'en pensez-vous ? Allez-vous l'utiliser ?
Voir aussi :
Les spécialistes du marketing ont de grands espoirs pour l'intelligence artificielle, mais seulement peu d'entre eux l'utilisent actuellement
Une intelligence artificielle peut-elle être un juge équitable dans un tribunal ? L'Estonie pense que oui
IDC prévoit une croissance à deux chiffres du marché mondial des dispositifs domestiques intelligents entre 2019 et 2023
Les « parrains de l'intelligence artificielle » récompensés du prix Turing 2018, le prix Nobel de l'informatique