IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG de Google qualifie de « totalement inacceptables » les erreurs de diversité commises par l'IA Gemini
Elles ont coûté 90 milliards de dollars à la capitalisation boursière de l'entreprise

Le , par Stéphane le calme

43PARTAGES

7  0 
Le PDG de Google, Sundar Pichai, a récemment exprimé son mécontentement concernant l’outil Gemini AI. Dans une note adressée aux employés, il a déclaré que certaines des réponses textuelles et visuelles générées par le modèle étaient biaisées et complètement inacceptables. Cette situation a suscité des réactions négatives de la part des utilisateurs et a mis en évidence des problèmes de partialité.

La semaine dernière, Google a présenté ses excuses pour ce qu’il décrit comme des « inexactitudes dans certaines représentations historiques générées par l’image » avec son outil Gemini, en disant que ses tentatives de créer une « large gamme » de résultats ont manqué la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui peut créer des images en réponse à des requêtes écrites. Il a rapidement attiré des critiques, qui ont accusé l’entreprise de former le bot à être trop «woke».

Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.

Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.

Google a décidé de suspendre la génération d'images de personnes par Gemini, le temps d'effectuer les modifications nécessaires.


Le PDG de Google qualifie les réponses controversées de l'outil d'IA de « totalement inacceptables »

Sundar Pichai, PDG de Google, a abordé mardi soir la controverse sur Gemini, qualifiant d'inacceptables les réponses problématiques de l'application d'intelligence artificielle en matière d'origine ethnique et s'engageant à procéder à des changements structurels pour résoudre le problème.

La plupart des entreprises qui proposent des outils d'IA comme Gemini créent des garde-fous pour limiter les abus et éviter les préjugés, en particulier à la lumière d'autres expériences. Par exemple, les outils de génération d'images d'entreprises comme OpenAI ont été critiqués lorsqu'ils ont créé des images prédominantes de personnes blanches dans des rôles professionnels et dépeignant des personnes noires dans des rôles stéréotypés.

« Je sais que certaines de ses réponses ont offensé nos utilisateurs et montré des préjugés - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés », a déclaré Pichai dans la note.

Pichai a déclaré que l'entreprise avait déjà fait des progrès dans la correction des garde-fous de Gemini. « Nos équipes ont travaillé 24 heures sur 24 pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites », a-t-il déclaré.

Ci-dessous, le memo entier :

Je souhaite aborder les récents problèmes liés aux réponses textuelles et imagées de l'application Gemini (anciennement Bard). Je sais que certaines de ses réponses ont offensé nos utilisateurs et fait preuve de partialité - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés.

Nos équipes ont travaillé sans relâche pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites. Aucune IA n'est parfaite, surtout à ce stade émergent du développement de l'industrie, mais nous savons que la barre est haute pour nous et nous continuerons à travailler aussi longtemps qu'il le faudra. Nous examinerons ce qui s'est passé et nous nous assurerons de le corriger à grande échelle.

Notre mission, qui consiste à organiser l'information mondiale et à la rendre universellement accessible et utile, est sacro-sainte. Nous avons toujours cherché à fournir aux utilisateurs des informations utiles, précises et impartiales dans nos produits. C'est pourquoi les gens leur font confiance. Nous devons adopter cette approche pour tous nos produits, y compris nos nouveaux produits d'intelligence artificielle.

Nous mènerons une série d'actions claires, notamment des changements structurels, des lignes directrices actualisées sur les produits, des processus de lancement améliorés, des évaluations robustes et des équipes d'experts, ainsi que des recommandations techniques. Nous examinons tout cela et nous apporterons les changements nécessaires.

Même si nous tirons les leçons de ce qui n'a pas fonctionné, nous devons également nous appuyer sur les annonces techniques et de produits que nous avons faites dans le domaine de l'IA au cours des dernières semaines. Il s'agit notamment d'avancées fondamentales dans nos modèles sous-jacents, par exemple notre percée d'un million de fenêtres à long contexte et nos modèles ouverts, qui ont tous deux été bien accueillis.

Nous savons ce qu'il faut pour créer d'excellents produits qui sont utilisés et appréciés par des milliards de personnes et d'entreprises, et grâce à notre infrastructure et à notre expertise en matière de recherche, nous disposons d'un tremplin incroyable pour la vague de l'IA. Concentrons-nous sur ce qui compte le plus : créer des produits utiles qui méritent la confiance de nos utilisateurs.


La perspective du marché

Alphabet, la société mère de Google, a perdu quelque 90 milliards de dollars en valeur boursière lundi, la controverse sur le produit d'intelligence artificielle générative du géant de la Silicon Valley ayant fait son chemin jusqu'à Wall Street. Les actions d'Alphabet ont chuté de 4,5 % à 138,75 dollars lundi, clôturant à leur prix le plus bas depuis le 5 janvier et enregistrant la deuxième plus forte perte quotidienne de l'année dernière.

Cette chute a fait suite à une série de controverses autour du service d'IA Gemini de Google, avec des problèmes tels que le service de génération d'images de Gemini produisant des représentations raciales inexactes de personnages historiques et son chatbot refusant de déterminer le personnage historique ayant le plus d'impact négatif entre Adolf Hitler et Elon Musk, ce qui a conduit l'entreprise à admettre qu'elle avait « raté le coche » lors du déploiement initial de Gemini et à mettre son service d'images d'IA hors ligne pour les prochaines semaines.

« Il s'agit d'une bévue significative dans la bataille de relations publiques autour de l'IA générative et cela suggère que Google est à la traîne et mal exécuté dans un espace qui évolue rapidement et dont les enjeux sont importants », a écrit Rob Sanderson, analyste chez Loop Capital, dans une note adressée aux clients dimanche.

« Le problème pour l'action n'est pas le débat [sur Gemini] lui-même, c'est la perception de la vérité derrière la marque », ont écrit Ben Reitzes et Nick Monroe, analystes chez Melius Research, dans une note adressée aux clients lundi. « Indépendamment de votre opinion, si Google est perçu comme une source d'IA peu fiable par une partie de la population, ce n'est pas bon pour les affaires », poursuivent les analystes.

La propulsion d'Alphabet dans la « ligne de mire » du débat sur la guerre culturelle pourrait remettre en question sa mainmise sur le marché de la recherche en ligne, selon l'hypothèse du groupe Melius, compte tenu du rôle croissant de l'IA dans la recherche en ligne et de la possibilité « qu'une partie significative des utilisateurs s'inquiète des hallucinations et des préjugés de l'IA de Google ». L'apparente partialité de Gemini est le dernier faux pas d'Alphabet dans la course aux armements de l'IA, dans laquelle son rival Microsoft semble être en pole position. Alphabet a perdu plus de 100 milliards de dollars de capitalisation boursière le jour de l'annonce de son service de chatbot d'IA en février dernier, après que le communiqué de presse ait inclus des erreurs factuelles commises par le service.


Conclusion

La controverse sur Gemini a alimenté les critiques de la droite, qui accusent souvent les entreprises technologiques de partialité libérale.

Mais il ne s'agit pas vraiment d'un parti pris. Elle montre que Google a commis des erreurs techniques dans la mise au point de ses modèles d'intelligence artificielle. Le problème ne réside pas dans les modèles sous-jacents eux-mêmes, mais dans les garde-fous logiciels qui chapeautent le modèle.

Il s'agit d'un défi auquel sont confrontées toutes les entreprises qui conçoivent des produits d'IA grand public, et pas seulement Google. Personne chez Google n'a voulu forcer Gemini à représenter le pape comme une femme, ou les Vikings comme des Noirs, et personne n'a voulu qu'il établisse une équivalence morale entre Musk et Hitler. Il s'agissait d'une tentative ratée de réduire les préjugés, et elle a mal tourné.

Cette débâcle montre à quel point Google évolue rapidement. Comme toutes les grandes entreprises, Google a ralenti au fil des ans. Mais la course à l'IA générative l'a contraint à accélérer le développement de ses produits.

Les erreurs de Gemini sont un problème technique qui peut être résolu et la note de Pichai au personnel mardi soir montre que l'entreprise y travaille. Mais les problèmes de réputation que cela soulève pourraient ne pas être aussi faciles à résoudre.

Source : mémo de Sundar Pichai

Et vous ?

Quelle est votre expérience personnelle avec Gemini AI ? Avez-vous déjà utilisé cet outil et avez-vous remarqué des biais ou des problèmes dans les réponses générées ?
Pensez-vous que les abonnements payants pour Gemini AI sont justifiés ? Quelle est votre opinion concernant la monétisation de cet outil ? La version payante améliore-t-elle réellement la qualité des réponses ?
Comment devrions-nous évaluer la performance des modèles d’intelligence artificielle ? Quels sont, selon vous, les critères de succès et les mesures objectives pour évaluer l’efficacité de Gemini AI ?
Quelles mesures devrait prendre Google pour réduire les biais dans les réponses générées par Gemini AI ?
Quel rôle joue la transparence dans le développement des technologies d’intelligence artificielle ? Partagez votre avis sur l’importance de la transparence et de la responsabilité dans ce domaine.

Voir aussi :

Google rebaptise son chatbot Bard en Gemini, lance un abonnement payant pour profiter de Gemini Ultra et propose une application dédiée sur Android qui va remplacer Google Assistant
Google prévoit de relancer dans les prochaines semaines son IA Gemini qui crée des images de personnes , après l'avoir stoppé en raison d'inexactitudes grotesques sur les représentations historiques

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/05/2024 à 12:43
Il y a bien longtemps que Google ne privilégie plus les intérêts de ses utilisateurs...

Cela s'est arrêté le jour où Google est devenu leader sur le marché du moteur de recherche...

C'est d'ailleurs le principe même de toutes les startup américaines: On commence par offrir des services gratuits ou vendus à perte... Puis lorsque le client est captif, on monte les prix!

Dernier exemple en date... Netflix! Par exemple, en Suisse, Netflix vient d'augmenter ses tarifs pour la 3ème fois en 3 ans!!!
3  0 
Avatar de 23JFK
Inactif https://www.developpez.com
Le 29/02/2024 à 22:47
Citation Envoyé par commandantFred Voir le message
...
N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne...

Le problème c'est que dans le cas présent, il n'a jamais été demandé à l'IA de faire preuve de fantaisie ou "d'imagination". Les requêtes étaient du genre : Montres-moi un authentique Viking de l'Histoire Norvégienne.
Se retrouver avec un Booba à casque ou un Gengis Khan sur un drakkar, ce n'est clairement pas ce qui était demandé.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 17/07/2024 à 22:54
Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?
Plus qu'un problème d'IA, on a affaire ici à un problème présent chez Google depuis deux décennies : Le mépris complet de Google pour la vie privée, droit pourtant fondamental dans le respect de la dignité humaine.
Un fichier hébergé sur Google Drive est la plupart du temps un fichier privé, on ne parle pas de fichiers publiés sur le web.

Cette situation est dans la droite ligné de ceci : https://grisebouille.net/google-lesp...-con-du-monde/

A ce niveau, Google Drive (même si c'est malheureusement loin d'être le seul) devrait être considéré comme un service piégé qui abuse de la confiance de victimes trop crédules. Le réglage qui ne fonctionne pas est carrément une stratégie digne des cybercriminel.
2  0 
Avatar de commandantFred
Membre averti https://www.developpez.com
Le 29/02/2024 à 2:05
Je trouve ce "scandale" des ethnies déguisées sans intérêt.

N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne.
D'ailleurs, c'est tellement absurde que personne n'a jamais consacré 5 minutes pour réaliser ce genre d'ineptie.

Il est vraiment dommage que Google ait bloqué les représentations humaines à cause d'un timbre poste de mauvais goût. Gemini m'a récemment empêché de modifier un avatar en envoyant un message d'erreur. Résultat, je me suis tourné vers une offre payante et moins exposée médiatiquement.

Personnellement, Bard m'a rendu de grands services par le passé alors que GPT, réputé plus agile, était soit limité aux informations de 2020 soit complètement aux fraises. Je préfère nettement un Bard moins pointu mais accédant à tout l'internet qu'un GPT réputé pointu mais totalement ignorant.

Clairement, Bard était capable d'accéder à la base de recherche Google en temps réel ce qui lui apportait un avantage autrement utile.
1  0 
Avatar de 23JFK
Inactif https://www.developpez.com
Le 28/02/2024 à 23:38
Leur problème, c'est de vouloir faire des IA sans personnalité alors, forcément, cela ne peut que mécontenter tout le monde. Il ferait plusieurs IA avec chacune leur personnalité (aka biais propres), tout le monde s'y retrouverait et pourrait choisir celle qui leur semble la plus honnête.
0  0 
Avatar de weed
Membre chevronné https://www.developpez.com
Le 15/05/2024 à 13:24
Citation Envoyé par Patrick Ruiz Voir le message
Quels risques entrevoyez-vous à l’intégration de Gemini à des services tels que Gmail, Docs et Google Messages ?
Je pense que l'on est tout d'accord que ce ne sera pas top en terme de vie privée.
Après reste à savoir si les gens sont à dupes que si Google mets en place une fonction de desactivation de l'IA (promis juré, craché, je ne regarde pas dans tes mails, tes parcours en voiture, tes programmes TV préférés, ...), ce n'est qu'un simple affichage comme indicateur.

Du point de vue Google est récolter un maximum d'information d'un maximum de personne (donc peu de fuites d'utilisateurs).
A mon avis, pouur Google, pas trop de risque à proposer ce type de produits pour atteindre leurs objetifs surtout si les média généralistes n'évoquent pas les intérets du coté de Google à proposer ce type de service.
0  0 
Avatar de PierreMF
Futur Membre du Club https://www.developpez.com
Le 27/05/2024 à 11:04
Suite aux conférences développeurs de Google il y a 2 semaines, et Microsoft la semaine dernière, la différence entre les deux est bien perceptible sur l'IA. Google a fait beaucoup d'annonces surprenantes mais floues, quelques démos de prototypes inaccessibles... A part dans la keynote, Google a finalement très peu parlé d'IA dans les sessions techniques de Google I/O.
Microsoft a présenté des éléments plus concrets pour l'IA dans le cloud ou en local sur le PC, et des sessions techniques.
0  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 27/05/2024 à 12:02
Oui enfin Microsoft ne fait qu'intégrer la solution d'OpenAI à tous ses logiciels c'est tout
0  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 17/07/2024 à 23:14
Ces risques pour la vie privée ouvrent la voie à d'autres préjudices, a déclaré Human Rights Watch. L'entraînement sur des photos d'enfants réels permet aux modèles d'IA de créer des clones convaincants de n'importe quel enfant, sur la base d'une poignée de photos ou même d'une seule image. Des acteurs malveillants ont utilisé des outils d'IA entraînés par LAION pour générer des images explicites d'enfants à partir de photos inoffensives, ainsi que des images explicites d'enfants survivants dont les images d'abus sexuels ont été introduites dans LAION-5B.
Par contre je comprend peut-être mal cette phrase, mais je ne voit pas en quoi le risque pour la vie privé décrit plus haut (la collecte abusive de certaines données) entraînerai d'autres risque par effet domino. En effet, rien n'interdit aux modèles de s’entraîner sur des photos d'enfant disponibles publiquement, le résultat sera exactement le même. A moins de demander aux modèles de ne plus collecter de photo d'enfant (donc de tronquer une part importante de la réalité, ce qui va à l'encontre la fonction première) ou de devenir bête en ne reproduisant plus que des images de manière littéral, sans rien mélanger. Hors il est évident que l'on se dirige vers l'inverse, à savoir une amélioration constante des modèles, ou il sera de plus en plus difficile de discerner les images d'origine.
On semble se diriger vers une nouvelle révolution de l'image, et donc probablement vers la faillite d'une grosse parti de la société consumériste (car la sacralisation des images et un des fondements du consumérisme), et les états/organisations vont devoir s'habituer.

Par contre, il devient très urgent de faire en sorte que n'importe qui souhaitant que son image ou l'image de son enfant ne serve pas pour entraîner des modèles, puisse avoir gain de cause.
0  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 26/07/2024 à 17:31
lol pour éviter les hallucinations, il faudrait que les poids soient : nombre de token / nombre total avec une clé de hache avec un nombre premier
0  0