Un deepfake est une vidéo dans laquelle le visage ou le corps d'une personne a été modifié numériquement pour qu'elle semble être quelqu'un d'autre. Cette technologie fait l'objet d'une presse très négative en raison de son potentiel de diffusion de fausses informations politiques et de développement malveillant de contenus pornographiques superposant le visage d'une personne sur le corps d'une autre. Elle représente également une menace existentielle pour les professionnels des industries créatives.
Christof Lutteroth et Christopher Clarke, tous deux du département d'informatique de Bath et coauteurs de la nouvelle étude, affirment que leurs résultats présentent deux cas d'utilisation positive des deepfakes et espèrent qu'ils catalyseront d'autres recherches sur les façons dont les deepfakes peuvent être appliqués pour faire le bien dans le monde.
"Les deepfakes sont souvent utilisés à des fins malveillantes, mais notre étude suggère que FakeForward (le nom utilisé par les chercheurs pour décrire l'utilisation d'un deepfake pour enseigner une nouvelle compétence) est une façon inexplorée d'appliquer la technologie afin qu'elle ajoute de la valeur à la vie des gens en soutenant et en améliorant leurs performances", a déclaré le Dr Clarke.
Le Dr Lutteroth a ajouté : "Cette étude montre clairement que le deepfake a le potentiel d'être vraiment passionnant pour les gens. En suivant un tutoriel dans lequel ils agissent comme leur propre tuteur, les gens peuvent immédiatement s'améliorer dans une tâche - c'est comme de la magie".
Plus de répétitions, plus de plaisir
Pour l'expérience de fitness, les participants à l'étude ont été invités à regarder une vidéo d'entraînement dans laquelle un deepfake de leur propre visage était collé sur le corps d'un pratiquant plus expérimenté.
Les chercheurs ont choisi six exercices (planches, squats, squats muraux, redressements assis, sauts de squat et pompes), chacun ciblant un groupe musculaire différent et nécessitant différents types de mouvements.
Pour chaque exercice, les participants à l'étude ont d'abord regardé un didacticiel vidéo dans lequel un modèle faisait la démonstration de l'exercice, puis se sont essayés à répéter l'exercice eux-mêmes. Le modèle a été choisi à la fois pour ressembler au participant et pour le surpasser, bien que son niveau de compétence soit accessible au sujet de l'étude.
Le processus de visionnage de la vidéo et d'imitation de l'exercice a également été réalisé à l'aide d'un instructeur deepfake, où le visage du participant était superposé au corps d'un modèle.
Dans les deux cas, les chercheurs ont mesuré le nombre de répétitions, c'est-à-dire le temps pendant lequel les participants étaient capables de tenir un exercice.
Pour tous les exercices, quel que soit l'ordre dans lequel les vidéos ont été regardées, les participants ont obtenu de meilleurs résultats après avoir regardé la vidéo d'eux-mêmes que la vidéo montrant quelqu'un d'autre.
"Le deepfake était un outil très puissant", a déclaré le Dr Lutteroth. "Immédiatement, les participants ont pu faire plus de pompes, ou tout autre exercice qu'on leur demandait de faire. La plupart d'entre eux ont également indiqué qu'ils faisaient mieux l'exercice qu'avec le tutoriel non simulé, et qu'ils l'appréciaient davantage".
Prise de parole en public
La deuxième étude FakeForward, réalisée par la même équipe, a révélé que le deepfake peut considérablement améliorer les compétences d'une personne en tant qu'orateur.
Lorsque le visage d'un orateur compétent était remplacé par celui d'un utilisateur, l'apprentissage était considérablement amplifié, la confiance et la compétence perçue en matière de prise de parole en public augmentant après le visionnage de la vidéo FakeForward.
De nombreux participants se sont sentis émus et inspirés par les vidéos de FakeForward, déclarant par exemple : "cela me donne beaucoup de force", "la vidéo deepfake me fait sentir que parler n'est pas si effrayant" et "lorsque je me suis vu debout et en train de parler, je me suis senti fier de moi".
Problèmes éthiques
En principe, il est déjà possible pour les particuliers de créer des vidéos FakeForward grâce à des applications libres telles que Roop et Deep Face Lab, même si, dans la pratique, un certain degré d'expertise technique est nécessaire.
Pour se prémunir contre d'éventuels abus, l'équipe de recherche de FakeForward a mis au point un protocole éthique pour guider le développement des vidéos de "selfie".
"Pour que cette technologie soit appliquée de manière éthique, les gens ne devraient créer que des modèles d'eux-mêmes, car le concept sous-jacent est qu'ils sont utiles pour la consommation privée", a déclaré le Dr Clarke.
Le Dr Lutteroth a ajouté : "Tout comme le deepfake peut être utilisé pour améliorer les "bonnes" activités, il peut également être utilisé à mauvais escient pour amplifier les "mauvaises" activités - par exemple, il peut apprendre aux gens à être plus racistes, plus sexistes et plus grossiers. Par exemple, regarder une vidéo de ce qui semble être vous en train de dire des choses terribles peut vous influencer davantage que de regarder quelqu'un d'autre en train de dire ces choses".
Et d'ajouter : "Il est clair que nous devons veiller à ce que les utilisateurs n'apprennent pas de comportements négatifs ou nuisibles à partir de FakeForward. Les obstacles sont considérables mais pas insurmontables".
Source : FakeForward: Using Deepfake Technology for Feedforward Learning
Et vous ?
Que pensez-vous de ce cas d'application de la technologie deepfake ? Trouvez-vous cet usage pertinent et utile ?
Voir aussi
Les humains ne peuvent détecter que 73 % des discours Deep Fake selon l'étude des chercheurs de l'Université de Londres
FakeCatcher, le détecteur de "deepfake" d'Intel, a été testé sur de vraies et de fausses vidéos par la BBC
TikTok diffuse une publicité deepfake IA de MrBeast vendant des iPhone 15 Pro pour 2 $, un deepfake IA de Tom Hanks a été utilisé pour vendre une assurance dentaire
La NSA, le FBI et la CISA publient une fiche d'information sur la cybersécurité concernant les menaces liées aux Deepfake