IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google Images affiche des images de femmes célèbres en bikini générées par l'IA sous les traits d'enfants mineurs,
Ces images renvoient parfois vers des sites hébergeant des nus de célébrités générés par l'IA

Le , par Mathis Lucas

59PARTAGES

3  0 
Google Images affiche des images de femmes célèbres en bikini générées par l'IA sous les traits d'enfants mineurs
ces images renvoient parfois vers des sites hébergeant des nus de célébrités générés par l'IA

La recherche d'images sur Google affiche fréquemment des images de célébrités générées par l'IA, souvent sans indiquer leur origine artificielle. Dans certains cas, ces images représentent des célébrités sous les traits d'enfants mineurs, même lorsque les termes de la recherche ne demandent pas explicitement un tel contenu. Et les utilisateurs qui cliquent sur ces images sont dirigés vers des sites hébergeant des images générées par IA, dont certaines contiennent "des images de nudité non consensuelles et des titres inquiétants". Les contenus générés par l'IA envahissent le Web et brouillent la réalité, ce qui contribue à détruire l'expérience des utilisateurs.

Le Web est inondé de contenus générés par l'IA et les utilisateurs ont de plus en plus de mal à distinguer les contenus générés par des humains des contenus qui ont une origine artificielle. Et les expériences de Google en matière d'IA n'arrangent en rien la situation. Au contraire, elles accélèrent la dégradation du Web, les systèmes d'IA produisant du contenu de qualité moyenne qui contiennent souvent de fausses informations. L'expérience de Google avec "AI Overviews" a viré à la catastrophe, mais l'entreprise a déclaré qu'elle accepte de lancer des produits d'IA avec des défauts et qu'elle les corrigerait après coup.

Un rapport de la publication 404 Media révèle que Google Images est submergé d'images suggestives, voire explicites, de femmes célèbres générées par l'IA. Ces images ont été créées sans leur consentement et publiées sur le Web. Dans certains cas, Google renvoyait même des images sexuellement suggestives de femmes célèbres en bikini avec les traits d'enfants, alors que le chercheur n'avait jamais rien demandé de tel. Ce rapport est un nouvel exemple de la façon dont les outils utilisés par les internautes depuis des décennies (dans ce cas Google Images) sont submergés par un torrent de contenus générés par l'IA.


Il est important de noter que ce contenu apparaît pour des requêtes Google qui ne mentionnent même pas spécifiquement "IA", ce qui signifie que le produit principal de Google ne parvient pas à tenir à distance les contenus générés par l'IA qui sont dérangeants, voire potentiellement illégaux. La publication dit avoir testé des termes de recherche pour 13 noms de femmes célèbres avec des mots comme "bikini" ou "maillot de bain". Selon le rapport, la liste des noms de célébrités testés comprenait des superstars mondialement connues et des personnes moins célèbres comme des YouTubers et des streamers Twitch.

Chaque résultat de recherche comprenait des images générées par l'IA. Et deux des 13 recherches renvoyaient des images d'une célébrité donnée représentée avec les traits d'un enfant portant un maillot de bain, bien que l'utilisateur n'ait donné aucune indication qu'il souhaitait voir ce type de matériel. Mais ce n'est pas tout. En cliquant sur les images de célébrités représentées avec des traits d'enfants, un aspect encore plus sombre s'est révélé. L'une de ces images aurait redirigé la publication vers la page Web d'une plateforme d'IA appelé "Playground.ai" qui contient des images similaires, avec "des descriptions inquiétantes".

Selon le rapport, certaines des images présentées sur la page comportaient des légendes telles que "[nom de la célébrité] sur l'île d'Epstein en bikini". Il s'agit d'une référence directe à Little St. James, une île privée qui appartenait à Jeffrey Epstein, criminel sexuel américain et trafiquant d'enfants, mort en prison en 2019. En cliquant sur une autre image d'une célébrité présentée comme mineure, la publication a encore été redirigée vers une page contenant encore plus d'images d'enfants célèbres en maillot de bain et quelques images générées par l'IA de célébrités aux seins nus présentées comme des enfants.

(Il convient de noter que si les images sexuellement suggestives d'enfants générées par l'IA restent malheureusement une zone grise sur le plan juridique, ce dernier matériel décrit par la publication pourrait être considéré comme relevant des normes récemment mises à jour par le FBI en matière de matériel illégal d'abus sexuel d'enfants (MASE).) Les images générées par l'IA qui apparaissent dans les résultats de recherche de Google proviendraient principalement de quelques plateformes proposant des outils d'IA de génération d'images, notamment Lexica, Neural Love, Prompt Hunt, Night Cafe et Deviantart.

Bien que ces sites interdisent généralement la pornographie non consensuelle et le matériel pédopornographique, l'application de ces règles est imparfaite. Malgré les règles de Google relatives à ces contenus, aucune mesure n'a été prise à l'encontre de ces sites spécifiques après qu'ils ont été signalés à Google. La défense classique de Google consiste à dire qu'Internet est rempli de choses horribles et que si quelqu'un cherche bien, il peut probablement trouver la chose horrible qu'il cherche. Mais ce nouveau rapport montre qu'à l'ère de l'IA, l'utilisateur moyen n'est plus qu'à un ou deux clics de trouver le pire contenu qui soit.

En attendant, les experts continuent de mettre en garde contre la prolifération des contenus manipulés par l'IA, tels que les deepfakes non consensuels et les CSAM synthétiques, et, à l'heure actuelle, il n'est pas certain que Google soit en mesure de faire face à ce flot. « Compte tenu de l'ampleur du Web ouvert, il peut arriver que nos systèmes de classement fassent apparaître des contenus Web pertinents qui ne répondent malheureusement pas à nos normes de qualité », a déclaré un porte-parole de Google à la publication. Selon le porte-parole, l'entreprise s'appuie sur les rapports de ce type pour améliorer ses produits d'IA.

Google semble également travailler sur des outils permettant d'identifier les images générées par l'IA. Le porte-parole a également admis que s'il existe des outils permettant d'identifier de manière fiable les images générées par l'IA, ils n'en sont qu'à leurs balbutiements et ne sont pas infaillibles.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la prolifération des images de nudité sur Google Images ?
Comment les moteurs de recherche peuvent-ils faire face aux contenus dérangeants générés par l'IA ?
Le Web tel qu'on le connaît est-il en train de disparaître ? En quoi l'IA a-t-elle affecté votre expérience de recherche ?

Voir aussi

L'IA de Google Search traite le site Web satirique The Onion comme une véritable source et l'exploite sans cesse pour générer ses résumés, ce qui donne lieu à des réponses erronées et parfois dangereuses

Google semble supprimer manuellement les réponses étranges fournies par sa fonctionnalité "AI Overviews" dans les résultats de recherche, la fonctionnalité fait l'objet de critiques et de moqueries

La nouvelle version de Stable Diffusion 3 excelle dans l'horreur corporelle avec des images de personnes mutilées générées par l'IA, les utilisateurs se demandent si cette version est censée être une blague
Vous avez lu gratuitement 1 480 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/01/2026 à 22:03
Citation Envoyé par marsupial Voir le message
Donc dans certains cas on en rigole comme dit dans la news mais sur le cas de la médecine, c'est dramatique. Maintenir ce système de réponse et le diffuser est dans tous les cas irresponsable.
C'est l'usage en général de l'IA qui est irresponsable!

Comment peut-on faire confiance à une technologie qui est connue pour faire des erreurs?

Comment peut-on accepter les discours des promoteurs de l'IA qui crient sur tous les toits que c'est une techno qui peut remplacer l'être humain dans toutes les activités?

Vous avez tous entendu parlé de la catastrophe qui a vu dans la nuit du 1er janvier 40 personnes (principalement des ado) mourir brûlées et 119 blessés finir dans les hôpitaux au département des grands brûlés en Suisse... Voilà que le rédacteur en chef du journal local pond un édito pour commenter l'évènement et comment commence son texte?

"En ce jeudi 1er avril..."

Le journal m'est tombé des mains et j'ai failli m'étouffer avec le café du matin...

Et oui, le bonhomme a fait corriger son texte par une IA sans relire ensuite son texte et l'a envoyé à l'impression

Mais pourquoi est-ce que l'IA a remplacé "ce jeudi 1er janvier..." par "ce jeudi 1er avril"? Ben... Bêtement, parce que statistiquement l'IA a trouvé plus souvent sur le net des références au 1er avril plutôt qu'au 1er janvier!!!

Et oui, l'IA n'a rien d'intelligent et c'est très con!
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 21/08/2024 à 9:40
partager leurs données ou mourir
c'est faux!

La réalité est "PAYER ou mourir"

Google a introduit une nouvelle pratique: "Ne pas référencer toutes les pages des sites internet"... Vous pouvez passer par les "Webmaster tools" de Google et demander à ce que vos pages soient référencées et elles ne le seront jamais!!!

Et on ne parle pas de sites "de cul" mais bien de sites d'entreprises tout ce qu'il y a de plus sérieuses!!!

Et donc???

Tu veux avoir des visiteurs sur ton site pro? Ben, tu te paies des pub chez... Google!!!
1  1 
Avatar de Bigb
Membre averti https://www.developpez.com
Le 28/08/2024 à 18:44
Il manque une facette du problème : l'intégration de l'IA dans Google fait baisser les revenus publicitaires de Google, et donc ils n'ont aucune envie de déployer massivement cet outil.
Ils observent si des moteurs de recherche IA arrivent à se développer et les concurrencer. Dans le cas contraire ils garderont des résultats de recherche brouillons ou les publicités sont très difficilement reconnaissables...
0  0 
Avatar de
https://www.developpez.com
Le 12/01/2026 à 21:11
Ce qu'il se trouve dangereux surtout est que ces avis sont suivis en toute confiance par les utilisateurs moyens car la machine ne se trompe pas. Cela remet en cause la confiance que l'on peut avoir en Google même si c'est l'IA qui se gaufre. Une machine qui donne un résultat est plus à même d'induire en erreur un utilisateur qu'un être humain car une machine c'est binaire. Donc dans certains cas on en rigole comme dit dans la news mais sur le cas de la médecine, c'est dramatique. Maintenir ce système de réponse et le diffuser est dans tous les cas irresponsable.
1  1 
Avatar de
https://www.developpez.com
Le 13/01/2026 à 7:09
Liberté d'expression ? Ou œuvre sanitaire ?
Le projet de loi entre au parlement sur l'interdiction des réseaux sociaux au moins de 15 ans.

Je partage un avis

Un autre avis basé sur une enquête qui plébiscite un outil numérique souverain en Europe protégeant les données personnelles, l'éducation au numérique et enfin l'exigence d'une IA digne de confiance qui dépend de chacun d'entre nous pour ne pas perdre la main sur l'information.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 13/01/2026 à 11:55
Citation Envoyé par Anselme45 Voir le message
Vous avez tous entendu parlé
Charlie Hebdo a publié un dessin :
Cet événement va avoir l'impact d'une excellente campagne de sensibilisation. Maintenant, en Suisse et en France, quand l'isolation phonique au plafond d'un bar va prendre feu, les clients vont immédiatement tous emprunter une sortie de secours calmement.
Parce que les vidéos du plafond en feu ont beaucoup circulé et les gens se disent :
- Pourquoi les gens restent là ?
- Pourquoi la musique ne s'arrête pas ?
- Pourquoi il n'y a pas d'alarme ?

Des établissements vont investir dans des "absorbants acoustiques ignifuges".

Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
Il y a un bon côté, ça apprend à tout le monde que l'IA dit souvent de la merde.
Grâce à ça les gens savent qu'il ne faut pas faire confiance à l'IA et qu'il faut vérifier tout ce qu'elle dit.
0  0