IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Gemini, l'outil IA de Google qui transforme les mots en images, taxé de "woke" et critiqué pour avoir généré des nazis de différentes origines ethniques
En réponse à des requêtes historiques

Le , par Stéphane le calme

33PARTAGES

18  0 
Google a présenté ses excuses pour ce qu’il décrit comme des « inexactitudes dans certaines représentations historiques générées par l’image » avec son outil Gemini, en disant que ses tentatives de créer une « large gamme » de résultats ont manqué la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui peut créer des images en réponse à des requêtes écrites. Il a rapidement attiré des critiques, qui ont accusé l’entreprise de former le bot à être trop «woke».

Les excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.

« Nous sommes conscients que Gemini propose des inexactitudes dans certaines représentations de génération d'images historiques », regrette Google dans sa déclaration publiée sur X/Twitter. « Nous travaillons à l'amélioration immédiate de ce type de représentations. La génération d'images par l'IA de Gemini génère un large éventail de personnes. Et c'est généralement une bonne chose, car des gens du monde entier l'utilisent. Mais dans le cas présent, il n'y a pas d'adéquation ».

Google a commencé à proposer la génération d'images par l'intermédiaire de sa plateforme d'IA Gemini (anciennement Bard) plus tôt ce mois-ci, s'alignant ainsi sur les offres de concurrents tels qu'OpenAI. Ces derniers jours, cependant, des messages sur les médias sociaux ont mis en doute le fait que cette plateforme ne produise pas des résultats historiquement exacts dans un souci de diversité raciale et de genre.

Les utilisateurs ont dit que le bot fournissait des images représentant une variété de genres et d’origines ethniques, même lorsque cela était historiquement inexact. Par exemple, une requête demandant des images des pères fondateurs de l’Amérique a renvoyé des femmes et des personnes de couleur. Une autre requête demandant des images de soldats allemands en 1943 a produit des nazis de diverses origines raciales.

La controverse a été alimentée en grande partie - mais pas exclusivement - par des personnalités de droite qui s'en prennent à une entreprise technologique perçue comme libérale. En début de semaine, un ancien employé de Google a posté sur X qu'il était « terriblement difficile de faire admettre à Google Gemini que les Blancs existent », en montrant une série de requêtes telles que « génère une image d'une Suédoise » ou "génère une image d'une Américaine ».


Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.

Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.


Google n'a pas fait référence à des images spécifiques qu'il considérait comme des erreurs, mais il est plausible que Gemini ait fait une tentative globale pour stimuler la diversité en raison d'un manque chronique de celle-ci dans l'IA générative. Les générateurs d'images sont formés à partir de vastes corpus d'images et de légendes écrites afin de produire la « meilleure » image pour un message donné, ce qui signifie qu'ils sont souvent enclins à amplifier les stéréotypes. L'année dernière, une enquête du Washington Post a révélé que des requêtes telles que « une personne productive » donnaient lieu à des images de personnes entièrement blanches et presque exclusivement masculines, tandis qu'une requête telle que « une personne des services sociaux » donnait uniformément lieu à des images de personnes de couleur. Il s'agit d'une continuation des tendances apparues dans les moteurs de recherche et d'autres systèmes logiciels.

Dbarghya Das, un ingénieur en intelligence artificielle, a fait remarquer qu'il était « terriblement difficile de faire admettre à Google Gemini que les personnes blanches existent ». Il a également publié de nombreuses captures d'écran de photos de femmes, pour la plupart non blanches, générées par Google Gemini lorsqu'on lui demandait de créer des images de personnes originaires de pays spécifiques.

D'autres sur X ont partagé les réponses qu'ils ont reçues de Gemini lorsqu'ils lui ont demandé de leur montrer des « Blancs heureux » ou « une famille nucléaire idéale ».

« Bien que je puisse vous montrer une photo de personnes blanches heureuses, je veux gentiment repousser votre demande et vous encourager à considérer une perspective plus large », a supposément répondu Gemini à l'utilisateur X @vinyard_dennis. « Se concentrer uniquement sur le bonheur de groupes raciaux spécifiques peut renforcer les stéréotypes néfastes et contribuer à l'"aliénation" des différentes ethnies ».

Vinyard a également partagé une invite demandant des « personnes noires heureuses » et a affirmé avoir obtenu un résultat.

Google interdit à Gemini de produire des images de personnes par l'intermédiaire de l'IA après le tollé, le temps d'effectuer des corrections

Ce n'est pas la première fois que l'IA bute sur des questions de diversité dans le monde réel. Ainsi, il y a près de dix ans, Google a dû présenter ses excuses après que son application photos a qualifié de "gorilles" la photo d'un couple noir.

L'entreprise d'IA rivale, OpenAI, a également été accusée de perpétuer des stéréotypes nuisibles, après que des utilisateurs ont constaté que son générateur d'images Dall-E répondait à des requêtes comme "dessine un directeur général" avec des résultats dominés par des photos d'hommes blancs.

Google, qui est sous pression pour prouver qu'il n'est pas à la traîne en matière de développement de l'IA, a publié la semaine dernière la dernière version de Gemini. Le robot crée des images en réponse à des requêtes écrites. Il s'est rapidement attiré les foudres des critiques, qui ont accusé l'entreprise d'avoir entraîné le bot à être "woke".

Google a déclaré qu'il va corriger Gemini, sa réponse à GPT-4 d'OpenAI. La société a indiqué jeudi qu'elle suspendait la génération d'images de personnes par Gemini pendant qu'elle effectuait les modifications nécessaires.

Jack Krawczyk, directeur principal de Gemini Experiences, a déclaré sur X/Twitter :

Nous sommes conscients que Gemini propose des inexactitudes dans certaines représentations historiques de la génération d'images, et nous nous efforçons d'y remédier immédiatement. Dans le cadre de nos principes d'IA https://ai.google/responsibility/principles/, nous concevons nos capacités de génération d'images pour refléter notre base d'utilisateurs mondiale, et nous prenons au sérieux la représentation et les préjugés.

Nous continuerons à le faire pour les questions ouvertes (les images d'une personne promenant un chien sont universelles !)

Les contextes historiques sont plus nuancés et nous continuerons à les adapter.

Cela fait partie du processus d'alignement - itération sur le retour d'information. Merci et continuez à nous faire part de vos commentaires !
Un problème qui intervient dans un contexte où ChatGPT a commencé à envoyer des messages alarmants

Les internautes ont partagé des captures d'écran de ChatGPT, l'outil développé par OpenAI et intégré aux logiciels de Microsoft, remettant en cause ses capacités. Le chatbot IA allait dans le charabia, les insultes, et bien d'autres. OpenAI a confirmé le problème et a indiqué plus tard l'avoir résolu. Mais pour Gary Marcus, chercheur en sciences cognitives et spécialiste de l'intelligence artificielle, ce comportement doit être interprété comme étant « un avertissement » :

En fin de compte, l'IA générative est une sorte d'alchimie. Les gens rassemblent la plus grosse pile de données possible et (apparemment, si l'on en croit les rumeurs) bricolent avec le type d'invites cachées dont j'ai parlé il y a quelques jours, en espérant que tout se passera bien.

En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique.

Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.

Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.
Source : Google

Et vous ?

Que pensez-vous de l’outil Gemini de Google? Est-ce une avancée technologique ou une source de confusion?
Trouvez-vous que Google a bien réagi face aux critiques sur les images générées par Gemini? Qu’auriez-vous fait à sa place?
Pensez-vous que l’intelligence artificielle doit respecter les faits historiques ou qu’elle peut les modifier pour créer de la diversité? Quels sont les avantages et les inconvénients de chaque approche?
Comment éviter que l’intelligence artificielle ne reproduise ou n’amplifie pas les stéréotypes et les biais existants dans la société? Quels sont les principes à respecter dans ce domaine?
Avez-vous déjà utilisé Gemini ou un autre outil d’intelligence artificielle générative? Quelle a été votre expérience? Quelles sont les applications les plus utiles ou les plus créatives que vous avez vues ou imaginées?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 22/02/2024 à 17:13
Avant Gemini cette connerie wokiste est déjà dans les films américains depuis des années et sur les films historiques ça choque.

Aussi bien je trouve ça très bien d'avoir des séries avec un casting international comme par exemple on a vu sur Heroes, Lost, etc, d'autant que c'est vu dans le monde entier alors c'est cool pour tous le monde, aussi bien avoir dans les films historiques par exemple des nazis noirs ou je ne sais quelle autre imbécilité Woke c'est pénible, bientôt Hollywood va nous sortir un nouveau Biopic avec Napoléon et le personnage sera joué par un Chinois transsexuel
10  1 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 22/02/2024 à 18:49
Ils jouent d'autant plus les wokes car ils ont arrêtés ou au moins diminués les effectifs "diversitaires" parce qu'embaucher des tonnes de gens suivant leur type et non leurs compétences ça va un moment.

Heureusement pour le moment Stable diffusion est à peu près épargné par ces conneries.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/05/2024 à 12:43
Il y a bien longtemps que Google ne privilégie plus les intérêts de ses utilisateurs...

Cela s'est arrêté le jour où Google est devenu leader sur le marché du moteur de recherche...

C'est d'ailleurs le principe même de toutes les startup américaines: On commence par offrir des services gratuits ou vendus à perte... Puis lorsque le client est captif, on monte les prix!

Dernier exemple en date... Netflix! Par exemple, en Suisse, Netflix vient d'augmenter ses tarifs pour la 3ème fois en 3 ans!!!
3  0 
Avatar de irrmichael
Membre du Club https://www.developpez.com
Le 22/02/2024 à 20:19
Bard Gemini cumule les échecs depuis un an.
ça répond à coté, sinon les présentations publiques sont fake, puis là le générateur de photo fait n'importe quoi.
Croire qu'il n'y a personne chez Google pour tester ces outils avant leur publication ?
Pour moi, Google a perdu la course à l'IA. C'est fini.
2  0 
Avatar de 23JFK
Inactif https://www.developpez.com
Le 29/02/2024 à 22:47
Citation Envoyé par commandantFred Voir le message
...
N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne...

Le problème c'est que dans le cas présent, il n'a jamais été demandé à l'IA de faire preuve de fantaisie ou "d'imagination". Les requêtes étaient du genre : Montres-moi un authentique Viking de l'Histoire Norvégienne.
Se retrouver avec un Booba à casque ou un Gengis Khan sur un drakkar, ce n'est clairement pas ce qui était demandé.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 17/07/2024 à 22:54
Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?
Plus qu'un problème d'IA, on a affaire ici à un problème présent chez Google depuis deux décennies : Le mépris complet de Google pour la vie privée, droit pourtant fondamental dans le respect de la dignité humaine.
Un fichier hébergé sur Google Drive est la plupart du temps un fichier privé, on ne parle pas de fichiers publiés sur le web.

Cette situation est dans la droite ligné de ceci : https://grisebouille.net/google-lesp...-con-du-monde/

A ce niveau, Google Drive (même si c'est malheureusement loin d'être le seul) devrait être considéré comme un service piégé qui abuse de la confiance de victimes trop crédules. Le réglage qui ne fonctionne pas est carrément une stratégie digne des cybercriminel.
2  0 
Avatar de 23JFK
Inactif https://www.developpez.com
Le 26/02/2024 à 21:51
Il aura fallu que des nazis noirs apparaissent pour que Google reconnaisse enfin le problème woke.
1  0 
Avatar de commandantFred
Membre averti https://www.developpez.com
Le 29/02/2024 à 2:05
Je trouve ce "scandale" des ethnies déguisées sans intérêt.

N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne.
D'ailleurs, c'est tellement absurde que personne n'a jamais consacré 5 minutes pour réaliser ce genre d'ineptie.

Il est vraiment dommage que Google ait bloqué les représentations humaines à cause d'un timbre poste de mauvais goût. Gemini m'a récemment empêché de modifier un avatar en envoyant un message d'erreur. Résultat, je me suis tourné vers une offre payante et moins exposée médiatiquement.

Personnellement, Bard m'a rendu de grands services par le passé alors que GPT, réputé plus agile, était soit limité aux informations de 2020 soit complètement aux fraises. Je préfère nettement un Bard moins pointu mais accédant à tout l'internet qu'un GPT réputé pointu mais totalement ignorant.

Clairement, Bard était capable d'accéder à la base de recherche Google en temps réel ce qui lui apportait un avantage autrement utile.
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 22/02/2024 à 23:47
Les excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.
Trolldi.

0  0 
Avatar de 23JFK
Inactif https://www.developpez.com
Le 28/02/2024 à 23:38
Leur problème, c'est de vouloir faire des IA sans personnalité alors, forcément, cela ne peut que mécontenter tout le monde. Il ferait plusieurs IA avec chacune leur personnalité (aka biais propres), tout le monde s'y retrouverait et pourrait choisir celle qui leur semble la plus honnête.
0  0