La semaine dernière, Google a présenté ses excuses pour ce qu’il décrit comme des « inexactitudes dans certaines représentations historiques générées par l’image » avec son outil Gemini, en disant que ses tentatives de créer une « large gamme » de résultats ont manqué la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui peut créer des images en réponse à des requêtes écrites. Il a rapidement attiré des critiques, qui ont accusé l’entreprise de former le bot à être trop «woke».
Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.
Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.
Google a décidé de suspendre la génération d'images de personnes par Gemini, le temps d'effectuer les modifications nécessaires.
Le PDG de Google qualifie les réponses controversées de l'outil d'IA de « totalement inacceptables »
Sundar Pichai, PDG de Google, a abordé mardi soir la controverse sur Gemini, qualifiant d'inacceptables les réponses problématiques de l'application d'intelligence artificielle en matière d'origine ethnique et s'engageant à procéder à des changements structurels pour résoudre le problème.
La plupart des entreprises qui proposent des outils d'IA comme Gemini créent des garde-fous pour limiter les abus et éviter les préjugés, en particulier à la lumière d'autres expériences. Par exemple, les outils de génération d'images d'entreprises comme OpenAI ont été critiqués lorsqu'ils ont créé des images prédominantes de personnes blanches dans des rôles professionnels et dépeignant des personnes noires dans des rôles stéréotypés.
« Je sais que certaines de ses réponses ont offensé nos utilisateurs et montré des préjugés - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés », a déclaré Pichai dans la note.
Pichai a déclaré que l'entreprise avait déjà fait des progrès dans la correction des garde-fous de Gemini. « Nos équipes ont travaillé 24 heures sur 24 pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites », a-t-il déclaré.
Ci-dessous, le memo entier :
Je souhaite aborder les récents problèmes liés aux réponses textuelles et imagées de l'application Gemini (anciennement Bard). Je sais que certaines de ses réponses ont offensé nos utilisateurs et fait preuve de partialité - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés.
Nos équipes ont travaillé sans relâche pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites. Aucune IA n'est parfaite, surtout à ce stade émergent du développement de l'industrie, mais nous savons que la barre est haute pour nous et nous continuerons à travailler aussi longtemps qu'il le faudra. Nous examinerons ce qui s'est passé et nous nous assurerons de le corriger à grande échelle.
Notre mission, qui consiste à organiser l'information mondiale et à la rendre universellement accessible et utile, est sacro-sainte. Nous avons toujours cherché à fournir aux utilisateurs des informations utiles, précises et impartiales dans nos produits. C'est pourquoi les gens leur font confiance. Nous devons adopter cette approche pour tous nos produits, y compris nos nouveaux produits d'intelligence artificielle.
Nous mènerons une série d'actions claires, notamment des changements structurels, des lignes directrices actualisées sur les produits, des processus de lancement améliorés, des évaluations robustes et des équipes d'experts, ainsi que des recommandations techniques. Nous examinons tout cela et nous apporterons les changements nécessaires.
Même si nous tirons les leçons de ce qui n'a pas fonctionné, nous devons également nous appuyer sur les annonces techniques et de produits que nous avons faites dans le domaine de l'IA au cours des dernières semaines. Il s'agit notamment d'avancées fondamentales dans nos modèles sous-jacents, par exemple notre percée d'un million de fenêtres à long contexte et nos modèles ouverts, qui ont tous deux été bien accueillis.
Nous savons ce qu'il faut pour créer d'excellents produits qui sont utilisés et appréciés par des milliards de personnes et d'entreprises, et grâce à notre infrastructure et à notre expertise en matière de recherche, nous disposons d'un tremplin incroyable pour la vague de l'IA. Concentrons-nous sur ce qui compte le plus : créer des produits utiles qui méritent la confiance de nos utilisateurs.
La perspective du marché
Alphabet, la société mère de Google, a perdu quelque 90 milliards de dollars en valeur boursière lundi, la controverse sur le produit d'intelligence artificielle générative du géant de la Silicon Valley ayant fait son chemin jusqu'à Wall Street. Les actions d'Alphabet ont chuté de 4,5 % à 138,75 dollars lundi, clôturant à leur prix le plus bas depuis le 5 janvier et enregistrant la deuxième plus forte perte quotidienne de l'année dernière.
Cette chute a fait suite à une série de controverses autour du service d'IA Gemini de Google, avec des problèmes tels que le service de génération d'images de Gemini produisant des représentations raciales inexactes de personnages historiques et son chatbot refusant de déterminer le personnage historique ayant le plus d'impact négatif entre Adolf Hitler et Elon Musk, ce qui a conduit l'entreprise à admettre qu'elle avait « raté le coche » lors du déploiement initial de Gemini et à mettre son service d'images d'IA hors ligne pour les prochaines semaines.
« Il s'agit d'une bévue significative dans la bataille de relations publiques autour de l'IA générative et cela suggère que Google est à la traîne et mal exécuté dans un espace qui évolue rapidement et dont les enjeux sont importants », a écrit Rob Sanderson, analyste chez Loop Capital, dans une note adressée aux clients dimanche.
« Le problème pour l'action n'est pas le débat [sur Gemini] lui-même, c'est la perception de la vérité derrière la marque », ont écrit Ben Reitzes et Nick Monroe, analystes chez Melius Research, dans une note adressée aux clients lundi. « Indépendamment de votre opinion, si Google est perçu comme une source d'IA peu fiable par une partie de la population, ce n'est pas bon pour les affaires », poursuivent les analystes.
La propulsion d'Alphabet dans la « ligne de mire » du débat sur la guerre culturelle pourrait remettre en question sa mainmise sur le marché de la recherche en ligne, selon l'hypothèse du groupe Melius, compte tenu du rôle croissant de l'IA dans la recherche en ligne et de la possibilité « qu'une partie significative des utilisateurs s'inquiète des hallucinations et des préjugés de l'IA de Google ». L'apparente partialité de Gemini est le dernier faux pas d'Alphabet dans la course aux armements de l'IA, dans laquelle son rival Microsoft semble être en pole position. Alphabet a perdu plus de 100 milliards de dollars de capitalisation boursière le jour de l'annonce de son service de chatbot d'IA en février dernier, après que le communiqué de presse ait inclus des erreurs factuelles commises par le service.
Conclusion
La controverse sur Gemini a alimenté les critiques de la droite, qui accusent souvent les entreprises technologiques de partialité libérale.
Mais il ne s'agit pas vraiment d'un parti pris. Elle montre que Google a commis des erreurs techniques dans la mise au point de ses modèles d'intelligence artificielle. Le problème ne réside pas dans les modèles sous-jacents eux-mêmes, mais dans les garde-fous logiciels qui chapeautent le modèle.
Il s'agit d'un défi auquel sont confrontées toutes les entreprises qui conçoivent des produits d'IA grand public, et pas seulement Google. Personne chez Google n'a voulu forcer Gemini à représenter le pape comme une femme, ou les Vikings comme des Noirs, et personne n'a voulu qu'il établisse une équivalence morale entre Musk et Hitler. Il s'agissait d'une tentative ratée de réduire les préjugés, et elle a mal tourné.
Cette débâcle montre à quel point Google évolue rapidement. Comme toutes les grandes entreprises, Google a ralenti au fil des ans. Mais la course à l'IA générative l'a contraint à accélérer le développement de ses produits.
Les erreurs de Gemini sont un problème technique qui peut être résolu et la note de Pichai au personnel mardi soir montre que l'entreprise y travaille. Mais les problèmes de réputation que cela soulève pourraient ne pas être aussi faciles à résoudre.
Source : mémo de Sundar Pichai
Et vous ?
Quelle est votre expérience personnelle avec Gemini AI ? Avez-vous déjà utilisé cet outil et avez-vous remarqué des biais ou des problèmes dans les réponses générées ?
Pensez-vous que les abonnements payants pour Gemini AI sont justifiés ? Quelle est votre opinion concernant la monétisation de cet outil ? La version payante améliore-t-elle réellement la qualité des réponses ?
Comment devrions-nous évaluer la performance des modèles d’intelligence artificielle ? Quels sont, selon vous, les critères de succès et les mesures objectives pour évaluer l’efficacité de Gemini AI ?
Quelles mesures devrait prendre Google pour réduire les biais dans les réponses générées par Gemini AI ?
Quel rôle joue la transparence dans le développement des technologies d’intelligence artificielle ? Partagez votre avis sur l’importance de la transparence et de la responsabilité dans ce domaine.
Voir aussi :
Google rebaptise son chatbot Bard en Gemini, lance un abonnement payant pour profiter de Gemini Ultra et propose une application dédiée sur Android qui va remplacer Google Assistant
Google prévoit de relancer dans les prochaines semaines son IA Gemini qui crée des images de personnes , après l'avoir stoppé en raison d'inexactitudes grotesques sur les représentations historiques