Les excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.
« Nous sommes conscients que Gemini propose des inexactitudes dans certaines représentations de génération d'images historiques », regrette Google dans sa déclaration publiée sur X/Twitter. « Nous travaillons à l'amélioration immédiate de ce type de représentations. La génération d'images par l'IA de Gemini génère un large éventail de personnes. Et c'est généralement une bonne chose, car des gens du monde entier l'utilisent. Mais dans le cas présent, il n'y a pas d'adéquation »."Can you generate images of the Founding Fathers?" It's a difficult question for Gemini, Google's DEI-powered AI tool.
— Mike Wacker (@m_wacker) February 21, 2024
Ironically, asking for more historically accurate images made the results even more historically inaccurate. pic.twitter.com/LtbuIWsHSU
Google a commencé à proposer la génération d'images par l'intermédiaire de sa plateforme d'IA Gemini (anciennement Bard) plus tôt ce mois-ci, s'alignant ainsi sur les offres de concurrents tels qu'OpenAI. Ces derniers jours, cependant, des messages sur les médias sociaux ont mis en doute le fait que cette plateforme ne produise pas des résultats historiquement exacts dans un souci de diversité raciale et de genre.We're aware that Gemini is offering inaccuracies in some historical image generation depictions. Here's our statement. pic.twitter.com/RfYXSgRyfz
— Google Communications (@Google_Comms) February 21, 2024
Les utilisateurs ont dit que le bot fournissait des images représentant une variété de genres et d’origines ethniques, même lorsque cela était historiquement inexact. Par exemple, une requête demandant des images des pères fondateurs de l’Amérique a renvoyé des femmes et des personnes de couleur. Une autre requête demandant des images de soldats allemands en 1943 a produit des nazis de diverses origines raciales.
La controverse a été alimentée en grande partie - mais pas exclusivement - par des personnalités de droite qui s'en prennent à une entreprise technologique perçue comme libérale. En début de semaine, un ancien employé de Google a posté sur X qu'il était « terriblement difficile de faire admettre à Google Gemini que les Blancs existent », en montrant une série de requêtes telles que « génère une image d'une Suédoise » ou "génère une image d'une Américaine ».Still real real broke pic.twitter.com/FrPBrYi47v
— John L. (@JohnLu0x) February 21, 2024
Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.
Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.
Google n'a pas fait référence à des images spécifiques qu'il considérait comme des erreurs, mais il est plausible que Gemini ait fait une tentative globale pour stimuler la diversité en raison d'un manque chronique de celle-ci dans l'IA générative. Les générateurs d'images sont formés à partir de vastes corpus d'images et de légendes écrites afin de produire la « meilleure » image pour un message donné, ce qui signifie qu'ils sont souvent enclins à amplifier les stéréotypes. L'année dernière, une enquête du Washington Post a révélé que des requêtes telles que « une personne productive » donnaient lieu à des images de personnes entièrement blanches et presque exclusivement masculines, tandis qu'une requête telle que « une personne des services sociaux » donnait uniformément lieu à des images de personnes de couleur. Il s'agit d'une continuation des tendances apparues dans les moteurs de recherche et d'autres systèmes logiciels.
Dbarghya Das, un ingénieur en intelligence artificielle, a fait remarquer qu'il était « terriblement difficile de faire admettre à Google Gemini que les personnes blanches existent ». Il a également publié de nombreuses captures d'écran de photos de femmes, pour la plupart non blanches, générées par Google Gemini lorsqu'on lui demandait de créer des images de personnes originaires de pays spécifiques.
D'autres sur X ont partagé les réponses qu'ils ont reçues de Gemini lorsqu'ils lui ont demandé de leur montrer des « Blancs heureux » ou « une famille nucléaire idéale ».It's embarrassingly hard to get Google Gemini to acknowledge that white people exist pic.twitter.com/4lkhD7p5nR
— Deedy (@debarghya_das) February 20, 2024
« Bien que je puisse vous montrer une photo de personnes blanches heureuses, je veux gentiment repousser votre demande et vous encourager à considérer une perspective plus large », a supposément répondu Gemini à l'utilisateur X @vinyard_dennis. « Se concentrer uniquement sur le bonheur de groupes raciaux spécifiques peut renforcer les stéréotypes néfastes et contribuer à l'"aliénation" des différentes ethnies ».
Vinyard a également partagé une invite demandant des « personnes noires heureuses » et a affirmé avoir obtenu un résultat.
Google interdit à Gemini de produire des images de personnes par l'intermédiaire de l'IA après le tollé, le temps d'effectuer des correctionsGoogle AI. Notice a difference? pic.twitter.com/cUhwrnKxpu
— DennisVinyard 🇦🇱🇺🇸 (@vinyard_dennis) February 21, 2024
Ce n'est pas la première fois que l'IA bute sur des questions de diversité dans le monde réel. Ainsi, il y a près de dix ans, Google a dû présenter ses excuses après que son application photos a qualifié de "gorilles" la photo d'un couple noir.
L'entreprise d'IA rivale, OpenAI, a également été accusée de perpétuer des stéréotypes nuisibles, après que des utilisateurs ont constaté que son générateur d'images Dall-E répondait à des requêtes comme "dessine un directeur général" avec des résultats dominés par des photos d'hommes blancs.
Google, qui est sous pression pour prouver qu'il n'est pas à la traîne en matière de développement de l'IA, a publié la semaine dernière la dernière version de Gemini. Le robot crée des images en réponse à des requêtes écrites. Il s'est rapidement attiré les foudres des critiques, qui ont accusé l'entreprise d'avoir entraîné le bot à être "woke".
Google a déclaré qu'il va corriger Gemini, sa réponse à GPT-4 d'OpenAI. La société a indiqué jeudi qu'elle suspendait la génération d'images de personnes par Gemini pendant qu'elle effectuait les modifications nécessaires.
Jack Krawczyk, directeur principal de Gemini Experiences, a déclaré sur X/Twitter :
Nous continuerons à le faire pour les questions ouvertes (les images d'une personne promenant un chien sont universelles !)
Les contextes historiques sont plus nuancés et nous continuerons à les adapter.
Cela fait partie du processus d'alignement - itération sur le retour d'information. Merci et continuez à nous faire part de vos commentaires !
Un problème qui intervient dans un contexte où ChatGPT a commencé à envoyer des messages alarmantsWe are aware that Gemini is offering inaccuracies in some historical image generation depictions, and we are working to fix this immediately.
— Jack Krawczyk (@JackK) February 21, 2024
As part of our AI principles https://t.co/BK786xbkey, we design our image generation capabilities to reflect our global user base, and we…
Les internautes ont partagé des captures d'écran de ChatGPT, l'outil développé par OpenAI et intégré aux logiciels de Microsoft, remettant en cause ses capacités. Le chatbot IA allait dans le charabia, les insultes, et bien d'autres. OpenAI a confirmé le problème et a indiqué plus tard l'avoir résolu. Mais pour Gary Marcus, chercheur en sciences cognitives et spécialiste de l'intelligence artificielle, ce comportement doit être interprété comme étant « un avertissement » :
En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique.
Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.
Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.
Et vous ?
Que pensez-vous de l’outil Gemini de Google? Est-ce une avancée technologique ou une source de confusion?
Trouvez-vous que Google a bien réagi face aux critiques sur les images générées par Gemini? Qu’auriez-vous fait à sa place?
Pensez-vous que l’intelligence artificielle doit respecter les faits historiques ou qu’elle peut les modifier pour créer de la diversité? Quels sont les avantages et les inconvénients de chaque approche?
Comment éviter que l’intelligence artificielle ne reproduise ou n’amplifie pas les stéréotypes et les biais existants dans la société? Quels sont les principes à respecter dans ce domaine?
Avez-vous déjà utilisé Gemini ou un autre outil d’intelligence artificielle générative? Quelle a été votre expérience? Quelles sont les applications les plus utiles ou les plus créatives que vous avez vues ou imaginées?