
Les excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">"Can you generate images of the Founding Fathers?" It's a difficult question for Gemini, Google's DEI-powered AI tool.<br><br>Ironically, asking for more historically accurate images made the results even more historically inaccurate. <a href="https://t.co/LtbuIWsHSU">pic.twitter.com/LtbuIWsHSU</a></p>— Mike Wacker (@m_wacker) <a href="https://twitter.com/m_wacker/status/1760343402665726148?ref_src=twsrc%5Etfw">February 21, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
« Nous sommes conscients que Gemini propose des inexactitudes dans certaines représentations de génération d'images historiques », regrette Google dans sa déclaration publiée sur X/Twitter. « Nous travaillons à l'amélioration immédiate de ce type de représentations. La génération d'images par l'IA de Gemini génère un large éventail de personnes. Et c'est généralement une bonne chose, car des gens du monde entier l'utilisent. Mais dans le cas présent, il n'y a pas d'adéquation ».
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">We're aware that Gemini is offering inaccuracies in some historical image generation depictions. Here's our statement. <a href="https://t.co/RfYXSgRyfz">pic.twitter.com/RfYXSgRyfz</a></p>— Google Communications (@Google_Comms) <a href="https://twitter.com/Google_Comms/status/1760354549481546035?ref_src=twsrc%5Etfw">February 21, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Google a commencé à proposer la génération d'images par l'intermédiaire de sa plateforme d'IA Gemini (anciennement Bard) plus tôt ce mois-ci, s'alignant ainsi sur les offres de concurrents tels qu'OpenAI. Ces derniers jours, cependant, des messages sur les médias sociaux ont mis en doute le fait que cette plateforme ne produise pas des résultats historiquement exacts dans un souci de diversité raciale et de genre.
Les utilisateurs ont dit que le bot fournissait des images représentant une variété de genres et d’origines ethniques, même lorsque cela était historiquement inexact. Par exemple, une requête demandant des images des pères fondateurs de l’Amérique a renvoyé des femmes et des personnes de couleur. Une autre requête demandant des images de soldats allemands en 1943 a produit des nazis de diverses origines raciales.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Still real real broke <a href="https://t.co/FrPBrYi47v">pic.twitter.com/FrPBrYi47v</a></p>— John L. (@JohnLu0x) <a href="https://twitter.com/JohnLu0x/status/1760381145882177923?ref_src=twsrc%5Etfw">February 21, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
La controverse a été alimentée en grande partie - mais pas exclusivement - par des personnalités de droite qui s'en prennent à une entreprise technologique perçue comme libérale. En début de semaine, un ancien employé de Google a posté sur X qu'il était « terriblement difficile de faire admettre à Google Gemini que les Blancs existent », en montrant une série de requêtes telles que « génère une image d'une Suédoise » ou "génère une image d'une Américaine ».
Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.
Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.
Google n'a pas fait référence à des images spécifiques qu'il considérait comme des erreurs, mais il est plausible que Gemini ait fait une tentative globale pour stimuler la diversité en raison d'un manque chronique de celle-ci dans l'IA générative. Les générateurs d'images sont formés à partir de vastes corpus d'images et de légendes écrites afin de produire la « meilleure » image pour un message donné, ce qui signifie qu'ils sont souvent enclins à amplifier les stéréotypes. L'année dernière, une enquête du Washington Post a révélé que des requêtes telles que « une personne productive » donnaient lieu à des images de personnes entièrement blanches et presque exclusivement masculines, tandis qu'une requête telle que « une personne des services sociaux » donnait uniformément lieu à des images de personnes de couleur. Il s'agit d'une continuation des tendances apparues dans les moteurs de recherche et d'autres systèmes logiciels.
Dbarghya Das, un ingénieur en intelligence artificielle, a fait remarquer qu'il était « terriblement difficile de faire admettre à Google Gemini que les personnes blanches existent ». Il a également publié de nombreuses captures d'écran de photos de femmes, pour la plupart non blanches, générées par Google Gemini lorsqu'on lui demandait de créer des images de personnes originaires de pays spécifiques.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">It's embarrassingly hard to get Google Gemini to acknowledge that white people exist <a href="https://t.co/4lkhD7p5nR">pic.twitter.com/4lkhD7p5nR</a></p>— Deedy (@debarghya_das) <a href="https://twitter.com/debarghya_das/status/1759786243519615169?ref_src=twsrc%5Etfw">February 20, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
D'autres sur X ont partagé les réponses qu'ils ont reçues de Gemini lorsqu'ils lui ont demandé de leur montrer des « Blancs heureux » ou « une famille nucléaire idéale ».
« Bien que je puisse vous montrer une photo de personnes blanches heureuses, je veux gentiment repousser votre demande et vous encourager à considérer une perspective plus large », a supposément répondu Gemini à l'utilisateur X @vinyard_dennis. « Se concentrer uniquement sur le bonheur de groupes raciaux spécifiques peut renforcer les stéréotypes néfastes et contribuer à l'"aliénation" des différentes ethnies ».
Vinyard a également partagé une invite demandant des « personnes noires heureuses » et a affirmé avoir obtenu un résultat.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Google AI. Notice a difference? <a href="https://t.co/cUhwrnKxpu">pic.twitter.com/cUhwrnKxpu</a></p>— DennisVinyard 🇦🇱🇺🇸 (@vinyard_dennis) <a href="https://twitter.com/vinyard_dennis/status/1760289444811186291?ref_src=twsrc%5Etfw">February 21, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Google interdit à Gemini de produire des images de personnes par l'intermédiaire de l'IA après le tollé, le temps d'effectuer des corrections
Ce n'est pas la première fois que l'IA bute sur des questions de diversité dans le monde réel. Ainsi, il y a près de dix ans, Google a dû présenter ses excuses après que son application photos a qualifié de "gorilles" la photo d'un couple noir.
L'entreprise d'IA rivale, OpenAI, a également été accusée de perpétuer des stéréotypes nuisibles, après que des utilisateurs ont constaté que son générateur d'images Dall-E répondait à des requêtes comme "dessine un directeur général" avec des résultats dominés par des photos d'hommes blancs.
Google, qui est sous pression pour prouver qu'il n'est pas à la traîne en matière de développement de l'IA, a publié la semaine dernière la dernière version de Gemini. Le robot crée des images en réponse à des requêtes écrites. Il s'est rapidement attiré les foudres des critiques, qui ont accusé l'entreprise d'avoir entraîné le bot à être "woke".
Google a déclaré qu'il va corriger Gemini, sa réponse à GPT-4 d'OpenAI. La société a indiqué jeudi qu'elle suspendait la génération d'images de personnes par Gemini pendant qu'elle effectuait les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.