
La semaine dernière, Google a présenté ses excuses pour ce qu’il décrit comme des « inexactitudes dans certaines représentations historiques générées par l’image » avec son outil Gemini, en disant que ses tentatives de créer une « large gamme » de résultats ont manqué la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui peut créer des images en réponse à des requêtes écrites. Il a rapidement attiré des critiques, qui ont accusé l’entreprise de former le bot à être trop «woke».
Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.
Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.
Google a décidé de suspendre la génération d'images de personnes par Gemini, le temps d'effectuer les modifications nécessaires.
Le PDG de Google qualifie les réponses controversées de l'outil d'IA de « totalement inacceptables »
Sundar Pichai, PDG de Google, a abordé mardi soir la controverse sur Gemini, qualifiant d'inacceptables les réponses problématiques de l'application d'intelligence artificielle en matière d'origine ethnique et s'engageant à procéder à des changements structurels pour résoudre le problème.
La plupart des entreprises qui proposent des outils d'IA comme Gemini créent des garde-fous pour limiter les abus et éviter les préjugés, en particulier à la lumière d'autres expériences. Par exemple, les outils de génération d'images d'entreprises comme OpenAI ont été critiqués lorsqu'ils ont créé des images prédominantes de personnes blanches dans des rôles professionnels et dépeignant des personnes noires dans des rôles stéréotypés.
« Je sais que certaines de ses réponses ont offensé nos utilisateurs et montré des préjugés - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés », a déclaré Pichai dans la note.
Pichai a déclaré que l'entreprise avait déjà fait des progrès dans la correction des garde-fous de Gemini. « Nos équipes ont travaillé 24 heures sur 24 pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites », a-t-il déclaré.
Ci-dessous, le memo entier :
Je souhaite aborder les récents problèmes liés aux réponses textuelles et imagées de l'application Gemini (anciennement Bard). Je sais que certaines de ses réponses ont offensé nos utilisateurs et fait preuve de partialité - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés.
Nos équipes ont travaillé sans relâche pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites. Aucune IA n'est parfaite, surtout à ce stade émergent du développement de l'industrie, mais nous savons que la barre est haute pour nous et nous continuerons à travailler aussi longtemps qu'il le faudra. Nous examinerons ce qui s'est passé et nous nous assurerons de le corriger à grande échelle.
Notre mission, qui consiste à organiser l'information mondiale et à la rendre universellement accessible et utile, est sacro-sainte. Nous avons toujours cherché à fournir aux utilisateurs des informations utiles, précises et impartiales dans nos produits. C'est pourquoi les gens leur font confiance. Nous devons adopter cette approche pour tous nos produits, y compris nos nouveaux produits d'intelligence artificielle.
Nous mènerons une série d'actions claires, notamment des changements structurels, des lignes directrices actualisées sur les produits, des processus de lancement améliorés, des évaluations robustes et des équipes d'experts, ainsi que des recommandations techniques. Nous examinons tout cela et nous apporterons les changements nécessaires.
Même si nous tirons les leçons de ce qui n'a pas fonctionné, nous devons également nous appuyer sur les annonces techniques et de produits que nous avons faites dans le domaine de l'IA au cours des dernières semaines. Il s'agit notamment d'avancées fondamentales dans nos modèles sous-jacents, par exemple notre percée d'un million de fenêtres à long contexte et nos modèles ouverts, qui ont tous deux été bien accueillis.
Nous savons ce qu'il faut pour créer d'excellents produits qui sont utilisés et appréciés par des milliards de personnes et d'entreprises, et grâce à notre infrastructure et à notre expertise en matière de recherche, nous disposons d'un tremplin incroyable pour la vague de l'IA. Concentrons-nous sur ce qui compte le plus : créer des produits utiles qui méritent la confiance de nos utilisateurs.
La perspective du marché
Alphabet, la société mère de Google, a perdu quelque 90 milliards de dollars en valeur boursière lundi, la controverse sur le produit d'intelligence artificielle générative du géant de la Silicon Valley ayant fait son chemin jusqu'à Wall Street. Les actions d'Alphabet ont chuté de 4,5 % à 138,75 dollars lundi, clôturant à leur prix le plus bas depuis le 5 janvier et enregistrant la deuxième plus forte perte quotidienne de l'année dernière.
Cette chute a fait suite à une série de controverses autour du service d'IA Gemini de Google, avec des problèmes tels que le service de génération d'images de Gemini produisant des représentations raciales inexactes de personnages historiques et son chatbot refusant de déterminer le personnage historique ayant le plus d'impact négatif entre Adolf Hitler et Elon Musk, ce qui a conduit l'entreprise à admettre qu'elle avait « raté le coche » lors du déploiement initial de Gemini et à mettre son service d'images d'IA hors ligne pour les prochaines semaines.
« Il s'agit d'une bévue significative dans la bataille de relations publiques autour de l'IA générative et cela suggère que Google est à la traîne et mal exécuté dans un espace qui évolue rapidement et dont les enjeux sont importants », a écrit Rob Sanderson, analyste chez Loop Capital, dans une note adressée aux clients dimanche.
« Le problème pour l'action n'est pas le débat [sur Gemini] lui-même, c'est la perception de la vérité derrière la marque », ont écrit Ben Reitzes et Nick Monroe, analystes chez Melius Research, dans une note adressée aux clients lundi. « Indépendamment de votre opinion, si Google est perçu comme une source d'IA peu fiable par une partie de la population, ce n'est pas bon pour les affaires », poursuivent les analystes.
La propulsion d'Alphabet dans la « ligne de mire » du débat sur la guerre culturelle pourrait remettre en question sa mainmise sur le marché de la recherche en ligne, selon l'hypothèse du groupe Melius, compte tenu du rôle croissant de l'IA dans la recherche en ligne et de la possibilité « qu'une partie significative des utilisateurs s'inquiète des hallucinations et des pr[/sur gemini]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.