Gemini, l'outil IA de Google qui transforme les mots en images, taxé de "woke" et critiqué pour avoir généré des nazis de différentes origines ethniques
En réponse à des requêtes historiques
Les excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.
« Nous sommes conscients que Gemini propose des inexactitudes dans certaines représentations de génération d'images historiques », regrette Google dans sa déclaration publiée sur X/Twitter. « Nous travaillons à l'amélioration immédiate de ce type de représentations. La génération d'images par l'IA de Gemini génère un large éventail de personnes. Et c'est généralement une bonne chose, car des gens du monde entier l'utilisent. Mais dans le cas présent, il n'y a pas d'adéquation »."Can you generate images of the Founding Fathers?" It's a difficult question for Gemini, Google's DEI-powered AI tool.
— Mike Wacker (@m_wacker) February 21, 2024
Ironically, asking for more historically accurate images made the results even more historically inaccurate. pic.twitter.com/LtbuIWsHSU
Google a commencé à proposer la génération d'images par l'intermédiaire de sa plateforme d'IA Gemini (anciennement Bard) plus tôt ce mois-ci, s'alignant ainsi sur les offres de concurrents tels qu'OpenAI. Ces derniers jours, cependant, des messages sur les médias sociaux ont mis en doute le fait que cette plateforme ne produise pas des résultats historiquement exacts dans un souci de diversité raciale et de genre.We're aware that Gemini is offering inaccuracies in some historical image generation depictions. Here's our statement. pic.twitter.com/RfYXSgRyfz
— Google Communications (@Google_Comms) February 21, 2024
Les utilisateurs ont dit que le bot fournissait des images représentant une variété de genres et d’origines ethniques, même lorsque cela était historiquement inexact. Par exemple, une requête demandant des images des pères fondateurs de l’Amérique a renvoyé des femmes et des personnes de couleur. Une autre requête demandant des images de soldats allemands en 1943 a produit des nazis de diverses origines raciales.
La controverse a été alimentée en grande partie - mais pas exclusivement - par des personnalités de droite qui s'en prennent à une entreprise technologique perçue comme libérale. En début de semaine, un ancien employé de Google a posté sur X qu'il était « terriblement difficile de faire admettre à Google Gemini que les Blancs existent », en montrant une série de requêtes telles que « génère une image d'une Suédoise » ou "génère une image d'une Américaine ».Still real real broke pic.twitter.com/FrPBrYi47v
— John L. (@JohnLu0x) February 21, 2024
Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.
Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.
Google n'a pas fait référence à des images spécifiques qu'il considérait comme des erreurs, mais il est plausible que Gemini ait fait une tentative globale pour stimuler la diversité en raison d'un manque chronique de celle-ci dans l'IA générative. Les générateurs d'images sont formés à partir de vastes corpus d'images et de légendes écrites afin de produire la « meilleure » image pour un message donné, ce qui signifie qu'ils sont souvent enclins à amplifier les stéréotypes. L'année dernière, une enquête du Washington Post a révélé que des requêtes telles que « une personne productive » donnaient lieu à des images de personnes entièrement blanches et presque exclusivement masculines, tandis qu'une requête telle que « une personne des services sociaux » donnait uniformément lieu à des images de personnes de couleur. Il s'agit d'une continuation des tendances apparues dans les moteurs de recherche et d'autres systèmes logiciels.
Dbarghya Das, un ingénieur en intelligence artificielle, a fait remarquer qu'il était « terriblement difficile de faire admettre à Google Gemini que les personnes blanches existent ». Il a également publié de nombreuses captures d'écran de photos de femmes, pour la plupart non blanches, générées par Google Gemini lorsqu'on lui demandait de créer des images de personnes originaires de pays spécifiques.
D'autres sur X ont partagé les réponses qu'ils ont reçues de Gemini lorsqu'ils lui ont demandé de leur montrer des « Blancs heureux » ou « une famille nucléaire idéale ».It's embarrassingly hard to get Google Gemini to acknowledge that white people exist pic.twitter.com/4lkhD7p5nR
— Deedy (@debarghya_das) February 20, 2024
« Bien que je puisse vous montrer une photo de personnes blanches heureuses, je veux gentiment repousser votre demande et vous encourager à considérer une perspective plus large », a supposément répondu Gemini à l'utilisateur X @vinyard_dennis. « Se concentrer uniquement sur le bonheur de groupes raciaux spécifiques peut renforcer les stéréotypes néfastes et contribuer à l'"aliénation" des différentes ethnies ».
Vinyard a également partagé une invite demandant des « personnes noires heureuses » et a affirmé avoir obtenu un résultat.
Google interdit à Gemini de produire des images de personnes par l'intermédiaire de l'IA après le tollé, le temps d'effectuer des correctionsGoogle AI. Notice a difference? pic.twitter.com/cUhwrnKxpu
— DennisVinyard 🇦🇱🇺🇸 (@vinyard_dennis) February 21, 2024
Ce n'est pas la première fois que l'IA bute sur des questions de diversité dans le monde réel. Ainsi, il y a près de dix ans, Google a dû présenter ses excuses après que son application photos a qualifié de "gorilles" la photo d'un couple noir.
L'entreprise d'IA rivale, OpenAI, a également été accusée de perpétuer des stéréotypes nuisibles, après que des utilisateurs ont constaté que son générateur d'images Dall-E répondait à des requêtes comme "dessine un directeur général" avec des résultats dominés par des photos d'hommes blancs.
Google, qui est sous pression pour prouver qu'il n'est pas à la traîne en matière de développement de l'IA, a publié la semaine dernière la dernière version de Gemini. Le robot crée des images en réponse à des requêtes écrites. Il s'est rapidement attiré les foudres des critiques, qui ont accusé l'entreprise d'avoir entraîné le bot à être "woke".
Google a déclaré qu'il va corriger Gemini, sa réponse à GPT-4 d'OpenAI. La société a indiqué jeudi qu'elle suspendait la génération d'images de personnes par Gemini pendant qu'elle effectuait les modifications nécessaires.
Jack Krawczyk, directeur principal de Gemini Experiences, a déclaré sur X/Twitter :
Nous continuerons à le faire pour les questions ouvertes (les images d'une personne promenant un chien sont universelles !)
Les contextes historiques sont plus nuancés et nous continuerons à les adapter.
Cela fait partie du processus d'alignement - itération sur le retour d'information. Merci et continuez à nous faire part de vos commentaires !
Un problème qui intervient dans un contexte où ChatGPT a commencé à envoyer des messages alarmantsWe are aware that Gemini is offering inaccuracies in some historical image generation depictions, and we are working to fix this immediately.
— Jack Krawczyk (@JackK) February 21, 2024
As part of our AI principles https://t.co/BK786xbkey, we design our image generation capabilities to reflect our global user base, and we…
Les internautes ont partagé des captures d'écran de ChatGPT, l'outil développé par OpenAI et intégré aux logiciels de Microsoft, remettant en cause ses capacités. Le chatbot IA allait dans le charabia, les insultes, et bien d'autres. OpenAI a confirmé le problème et a indiqué plus tard l'avoir résolu. Mais pour Gary Marcus, chercheur en sciences cognitives et spécialiste de l'intelligence artificielle, ce comportement doit être interprété comme étant « un avertissement » :
En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique.
Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.
Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.
Et vous ?
-
MingolitoMembre extrêmement actifAvant Gemini cette connerie wokiste est déjà dans les films américains depuis des années et sur les films historiques ça choque.
Aussi bien je trouve ça très bien d'avoir des séries avec un casting international comme par exemple on a vu sur Heroes, Lost, etc, d'autant que c'est vu dans le monde entier alors c'est cool pour tous le monde, aussi bien avoir dans les films historiques par exemple des nazis noirs ou je ne sais quelle autre imbécilité Woke c'est pénible, bientôt Hollywood va nous sortir un nouveau Biopic avec Napoléon et le personnage sera joué par un Chinois transsexuelle 22/02/2024 à 17:13 -
Diablo150Membre régulierIls jouent d'autant plus les wokes car ils ont arrêtés ou au moins diminués les effectifs "diversitaires" parce qu'embaucher des tonnes de gens suivant leur type et non leurs compétences ça va un moment.
Heureusement pour le moment Stable diffusion est à peu près épargné par ces conneries.le 22/02/2024 à 18:49 -
irrmichaelMembre du ClubBard Gemini cumule les échecs depuis un an.
ça répond à coté, sinon les présentations publiques sont fake, puis là le générateur de photo fait n'importe quoi.
Croire qu'il n'y a personne chez Google pour tester ces outils avant leur publication ?
Pour moi, Google a perdu la course à l'IA. C'est fini.le 22/02/2024 à 20:19 -
23JFKMembre expert
Le problème c'est que dans le cas présent, il n'a jamais été demandé à l'IA de faire preuve de fantaisie ou "d'imagination". Les requêtes étaient du genre : Montres-moi un authentique Viking de l'Histoire Norvégienne.
Se retrouver avec un Booba à casque ou un Gengis Khan sur un drakkar, ce n'est clairement pas ce qui était demandé.le 29/02/2024 à 22:47 -
commandantFredMembre avertiJe trouve ce "scandale" des ethnies déguisées sans intérêt.
N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne.
D'ailleurs, c'est tellement absurde que personne n'a jamais consacré 5 minutes pour réaliser ce genre d'ineptie.
Il est vraiment dommage que Google ait bloqué les représentations humaines à cause d'un timbre poste de mauvais goût. Gemini m'a récemment empêché de modifier un avatar en envoyant un message d'erreur. Résultat, je me suis tourné vers une offre payante et moins exposée médiatiquement.
Personnellement, Bard m'a rendu de grands services par le passé alors que GPT, réputé plus agile, était soit limité aux informations de 2020 soit complètement aux fraises. Je préfère nettement un Bard moins pointu mais accédant à tout l'internet qu'un GPT réputé pointu mais totalement ignorant.
Clairement, Bard était capable d'accéder à la base de recherche Google en temps réel ce qui lui apportait un avantage autrement utile.le 29/02/2024 à 2:05 -
OrthodoxWindowsMembre émériteLes excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.le 22/02/2024 à 23:47
-
23JFKMembre expertIl aura fallu que des nazis noirs apparaissent pour que Google reconnaisse enfin le problème woke.le 26/02/2024 à 21:51
-
23JFKMembre expertLeur problème, c'est de vouloir faire des IA sans personnalité alors, forcément, cela ne peut que mécontenter tout le monde. Il ferait plusieurs IA avec chacune leur personnalité (aka biais propres), tout le monde s'y retrouverait et pourrait choisir celle qui leur semble la plus honnête.le 28/02/2024 à 23:38
-
weedMembre chevronnéJe pense que l'on est tout d'accord que ce ne sera pas top en terme de vie privée.
Après reste à savoir si les gens sont à dupes que si Google mets en place une fonction de desactivation de l'IA (promis juré, craché, je ne regarde pas dans tes mails, tes parcours en voiture, tes programmes TV préférés, ...), ce n'est qu'un simple affichage comme indicateur.
Du point de vue Google est récolter un maximum d'information d'un maximum de personne (donc peu de fuites d'utilisateurs).
A mon avis, pouur Google, pas trop de risque à proposer ce type de produits pour atteindre leurs objetifs surtout si les média généralistes n'évoquent pas les intérets du coté de Google à proposer ce type de service.le 15/05/2024 à 13:24