L’affaire est glaçante parce qu’elle concentre plusieurs ruptures en une seule. Une enseignante britannique contrainte de quitter son école après la diffusion d’une vidéo pornographique truquée la mettant en scène, un deepfake généré par une élève de huit ans à partir de simples photos publiques, et une institution scolaire incapable de mesurer la gravité numérique de l’acte. Ce n’est pas seulement un fait divers choquant. C’est un symptôme. Celui d’une technologie devenue trop accessible, trop puissante et trop mal encadrée pour les cadres éducatifs et juridiques actuels.Une enseignante du primaire a partagé son expérience traumatisante après qu'une élève du CE2 a créé une vidéo deepfake explicite la montrant en train d'avoir des relations sexuelles avec deux autres membres du personnel. Elle en profite pour demander que les enfants soient interdits d'accès à l'intelligence artificielle, car celle-ci fait plus de mal que de bien.
Megan (nom fictif) est une éducatrice chevronnée qui compte plus de 20 ans d'expérience dans l'enseignement, mais elle a été victime de l'incident le plus « perturbant » de sa carrière en 2021. Une fillette de huit ans a utilisé des photos du site web de l'école pour créer une vidéo deepfake montrant à tort Megan et deux autres enseignants en train d'avoir un rapport sexuel à trois.
Cette enseignante basée à Londres met aujourd'hui en lumière les effets néfastes des abus sexuels deepfake. Elle a également raconté comment elle a été contrainte de quitter l'école lorsque le comportement de la jeune fille qui « ricanaient » n'a pas été pris au sérieux.
Un jour, cette élève anonyme a abordé Megan dans la cour de récréation, affirmant avoir trouvé une photo d'elle sur Internet via une recherche Google, sur laquelle elle apparaissait debout près d'une montagne, selon le Mirror. Puis, quelques semaines plus tard, l'inimaginable s'est produit lorsque des parents ont fait part de leurs inquiétudes au sujet d'une vidéo explicite d'elle et d'autres enseignants qui avait circulé dans le groupe WhatsApp des enfants.
Il est rapidement apparu que l'enfant qui avait partagé la vidéo n'était pas celle qui l'avait réalisée, et que la fille qui avait abordé Megan pendant la récréation était en fait la responsable. La fille qui avait partagé la vidéo était « mortifiée » et a été contrainte de présenter ses excuses lors d'une réunion avec sa mère et Megan, tandis que la fille qui avait créé le clip « ne montrait aucun remords ».
Un deepfake sexuel, produit sans expertise technique
Le premier enseignement de cette affaire concerne la banalisation technologique. Produire un deepfake crédible ne relève plus aujourd’hui de la recherche en intelligence artificielle ni même du développement avancé. Des applications mobiles, des services en ligne et des modèles prêts à l’emploi permettent de générer des images ou des vidéos truquées à partir de quelques photos, souvent sans compréhension réelle de ce qui se passe « sous le capot ».
Ce point est central pour les professionnels de l’informatique. Nous ne sommes plus dans un scénario où seuls des acteurs très qualifiés peuvent détourner l’IA à des fins malveillantes. L’outillage s’est démocratisé au point de devenir manipulable par des enfants. Le passage à l’échelle du risque ne vient pas d’un saut algorithmique, mais d’un saut d’accessibilité.
Quand la culture numérique des mineurs dépasse celle des institutions
L’un des aspects les plus troublants du dossier réside dans le décalage entre la maturité numérique de l’enfant et l’immaturité organisationnelle de l’institution. L’élève impliquée ne s’est pas contentée de produire un contenu explicite. Elle a compris la mécanique de l’image, la force du visuel truqué, et la logique de diffusion au sein d’un écosystème fermé comme un groupe WhatsApp.
Megan a raconté cette expérience effrayante : « Elle ricanait pendant les réunions scolaires avec ses parents ; tout cela était très étrange. Le plus troublant était son jeune âge : elle n'avait que huit ou neuf ans. Le simple fait de savoir ce qu'est une partie à trois à cet âge est déjà assez choquant, sans parler de la création d'un deepfake. »
Megan n'a jamais réussi à voir le deepfake, car il avait été effacé des appareils des élèves avant même que la vague de plaintes ne lui parvienne. Après coup, elle aurait trouvé que la réponse de l'école ne tenait pas compte de ses préoccupations, la contraignant à vivre seule cette expérience. Elle a révélé : « Le directeur...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
