IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google Images affiche des images de femmes célèbres en bikini générées par l'IA sous les traits d'enfants mineurs,
Ces images renvoient parfois vers des sites hébergeant des nus de célébrités générés par l'IA

Le , par Mathis Lucas

0PARTAGES

3  0 
La recherche d'images sur Google affiche fréquemment des images de célébrités générées par l'IA, souvent sans indiquer leur origine artificielle. Dans certains cas, ces images représentent des célébrités sous les traits d'enfants mineurs, même lorsque les termes de la recherche ne demandent pas explicitement un tel contenu. Et les utilisateurs qui cliquent sur ces images sont dirigés vers des sites hébergeant des images générées par IA, dont certaines contiennent "des images de nudité non consensuelles et des titres inquiétants". Les contenus générés par l'IA envahissent le Web et brouillent la réalité, ce qui contribue à détruire l'expérience des utilisateurs.

Le Web est inondé de contenus générés par l'IA et les utilisateurs ont de plus en plus de mal à distinguer les contenus générés par des humains des contenus qui ont une origine artificielle. Et les expériences de Google en matière d'IA n'arrangent en rien la situation. Au contraire, elles accélèrent la dégradation du Web, les systèmes d'IA produisant du contenu de qualité moyenne qui contiennent souvent de fausses informations. L'expérience de Google avec "AI Overviews" a viré à la catastrophe, mais l'entreprise a déclaré qu'elle accepte de lancer des produits d'IA avec des défauts et qu'elle les corrigerait après coup.

Un rapport de la publication 404 Media révèle que Google Images est submergé d'images suggestives, voire explicites, de femmes célèbres générées par l'IA. Ces images ont été créées sans leur consentement et publiées sur le Web. Dans certains cas, Google renvoyait même des images sexuellement suggestives de femmes célèbres en bikini avec les traits d'enfants, alors que le chercheur n'avait jamais rien demandé de tel. Ce rapport est un nouvel exemple de la façon dont les outils utilisés par les internautes depuis des décennies (dans ce cas Google Images) sont submergés par un torrent de contenus générés par l'IA.


Il est important de noter que ce contenu apparaît pour des requêtes Google qui ne mentionnent même pas spécifiquement "IA", ce qui signifie que le produit principal de Google ne parvient pas à tenir à distance les contenus générés par l'IA qui sont dérangeants, voire potentiellement illégaux. La publication dit avoir testé des termes de recherche pour 13 noms de femmes célèbres avec des mots comme "bikini" ou "maillot de bain". Selon le rapport, la liste des noms de célébrités testés comprenait des superstars mondialement connues et des personnes moins célèbres comme des YouTubers et des streamers Twitch.

Chaque résultat de recherche comprenait des images générées par l'IA. Et deux des 13 recherches renvoyaient des images d'une célébrité donnée représentée avec les traits d'un enfant portant un maillot de bain, bien que l'utilisateur n'ait donné aucune indication qu'il souhaitait voir ce type de matériel. Mais ce n'est pas tout. En cliquant sur les images de célébrités représentées avec des traits d'enfants, un aspect encore plus sombre s'est révélé. L'une de ces images aurait redirigé la publication vers la page Web d'une plateforme d'IA appelé "Playground.ai" qui contient des images similaires, avec "des descriptions inquiétantes".

Selon le rapport, certaines des images présentées sur la page comportaient des légendes telles que "[nom de la célébrité] sur l'île d'Epstein en bikini". Il s'agit d'une référence directe à Little St. James, une île privée qui appartenait à Jeffrey Epstein, criminel sexuel américain et trafiquant d'enfants, mort en prison en 2019. En cliquant sur une autre image d'une célébrité présentée comme mineure, la publication a encore été redirigée vers une page contenant encore plus d'images d'enfants célèbres en maillot de bain et quelques images générées par l'IA de célébrités aux seins nus présentées comme des enfants.

(Il convient de noter que si les images sexuellement suggestives d'enfants générées par l'IA restent malheureusement une zone grise sur le plan juridique, ce dernier matériel décrit par la publication pourrait être considéré comme relevant des normes récemment mises à jour par le FBI en matière de matériel illégal d'abus sexuel d'enfants (MASE).) Les images générées par l'IA qui apparaissent dans les résultats de recherche de Google proviendraient principalement de quelques plateformes proposant des outils d'IA de génération d'images, notamment Lexica, Neural Love, Prompt Hunt, Night Cafe et Deviantart.

Bien que ces sites interdisent généralement la pornographie non consensuelle et le matériel pédopornographique, l'application de ces règles est imparfaite. Malgré les règles de Google relatives à ces contenus, aucune mesure n'a été prise à l'encontre de ces sites spécifiques après qu'ils ont été signalés à Google. La défense classique de Google consiste à dire qu'Internet est rempli de choses horribles et que si quelqu'un cherche bien, il peut probablement trouver la chose horrible qu'il cherche. Mais ce nouveau rapport montre qu'à l'ère de l'IA, l'utilisateur moyen n'est plus qu'à un ou deux clics de trouver le pire contenu qui soit.

En attendant, les experts continuent de mettre en garde contre la prolifération des contenus manipulés par l'IA, tels que les deepfakes non consensuels et les CSAM synthétiques, et, à l'heure actuelle, il n'est pas certain que Google soit en mesure de faire face à ce flot. « Compte tenu de l'ampleur du Web ouvert, il peut arriver que nos systèmes de classement fassent apparaître des contenus Web pertinents qui ne répondent malheureusement pas à nos normes de qualité », a déclaré un porte-parole de Google à la publication. Selon le porte-parole, l'entreprise s'appuie sur les rapports de ce type pour améliorer ses produits d'IA.

Google semble également travailler sur des outils permettant d'identifier les images générées par l'IA. Le porte-parole a également admis que s'il existe des outils permettant d'identifier de manière fiable les images générées par l'IA, ils n'en sont qu'à leurs balbutiements et ne sont pas infaillibles.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la prolifération des images de nudité sur Google Images ?
Comment les moteurs de recherche peuvent-ils faire face aux contenus dérangeants générés par l'IA ?
Le Web tel qu'on le connaît est-il en train de disparaître ? En quoi l'IA a-t-elle affecté votre expérience de recherche ?

Voir aussi

L'IA de Google Search traite le site Web satirique The Onion comme une véritable source et l'exploite sans cesse pour générer ses résumés, ce qui donne lieu à des réponses erronées et parfois dangereuses

Google semble supprimer manuellement les réponses étranges fournies par sa fonctionnalité "AI Overviews" dans les résultats de recherche, la fonctionnalité fait l'objet de critiques et de moqueries

La nouvelle version de Stable Diffusion 3 excelle dans l'horreur corporelle avec des images de personnes mutilées générées par l'IA, les utilisateurs se demandent si cette version est censée être une blague

Une erreur dans cette actualité ? Signalez-nous-la !