La fonction « AI Overviews » de Google Search est désormais disponible à l'échelle mondiale. Elle affiche en haut de la page de résultats un court résumé rédigé par une IA. Ce résumé synthétise des informations provenant de plusieurs sources du Web afin de répondre directement à la question. Elle a entraîné une forte baisse des clics sur les liens des résultats de recherche. Mais cette fonction génère parfois des résumés étranges et erronés, voire dangereux. Une récente enquête a révélé qu'un certain nombre de résumés médicaux générés par l'IA fournissaient des informations inexactes ou trompeuses. Google a été contraint de les supprimer.Google Search a ajouté la fonction « AI Overviews » (« aperçus de l'IA ») le 14 mai 2024. Il s'agit de résumés concis générés par l'IA et qui apparaissent directement sur les pages de résultats de recherche de Google. Cette fonction est conçue pour aider les internautes à comprendre rapidement un sujet en combinant des informations provenant de différentes sources, dont les pages Web de résultats de recherche et la base de connaissances de Google.
Les résumés sont placés en haut de la page des résultats de recherche, et au-dessus des résultats rédigés par des humains. Peu après son lancement, les utilisateurs ont commencé à partager sur les réseaux sociaux les captures d'écran des réponses les plus farfelues générées par cette fonctionnalité.
Dans un cas, l'IA de Google a dit à un utilisateur de mettre de la colle sur sa pizza afin de faire adhérer le fromage. Elle a aussi conseillé aux utilisateurs de manger trois cailloux par jour, et s'est trompée en recommandant des champions vénéneux. Ces gaffes répétées ont soulevé des préoccupations concernant la sécurité de cette fonctionnalité et l’opportunité de la maintenir. Google a tout de même poursuivi le déploiement à l'échelle mondiale.
Les utilisateurs exposés à de faux résumés sur les questions de santé
Une récente enquête menée par The Guardian révèle que les aperçus fournis par l'IA contenaient des informations inexactes et erronées lorsqu'ils étaient interrogés sur des analyses sanguines. Google insiste sur le fait que les aperçus générés par son IA sont « utiles » et « fiables ». Mais le rapport de l'étude indique que certains de ces résumés fournissaient des informations de santé inexactes, exposant la santé des utilisateurs à de nombreux risques.
Dans un cas qualifié de « dangereux » et « alarmant » par les experts, l'IA de Google a fourni des informations erronées sur des tests cruciaux de la fonction hépatique, pouvant amener des personnes atteintes d'une maladie grave du foie à penser à tort qu'elles étaient en bonne santé.
En tapant « quelle est la fourchette normale pour les tests sanguins du foie », l'équipe a constaté que le moteur de recherche fournissait une multitude de chiffres, sans contexte et sans tenir compte de la nationalité, du sexe, de l'origine ethnique ou de l'âge des patients. Selon les experts, ce que l'IA de Google considérait comme normal pouvait différer considérablement de ce qui était réellement considéré comme normal dans les pratiques médicales.
Les résumés pouvaient amener des patients gravement malades à penser à tort que leurs résultats d'examens étaient normaux et à ne pas se présenter aux rendez-vous médicaux de suivi. À l'issue de l'enquête, le géant de la recherche a supprimé les aperçus générés par l'IA pour les termes de recherche « quelle est la fourchette normale pour les tests sanguins hépatiques » et « quelle est la fourchette normale pour les tests de la fonction hépatique ».
Un test de la fonction hépatique (liver function test - LFT) est un ensemble de différents tests sanguins. Comprendre les résultats et savoir quoi faire ensuite est complexe et implique bien plus que la simple comparaison d'une série de chiffres. Mais selon le rapport indique, les aperçus de l'IA présentent une liste de tests en gras, ce qui fait que les lecteurs peuvent facilement oublier que ces chiffres ne sont peut-être même pas les bons pour leur test.
Le risque de faux résumés demeure malgré les réponses supprimées
Vanessa Hebditch, directrice de la communication et des politiques au British Liver Trust, une association caritative dédiée à la santé du foie, a déclaré : « c'est une excellente nouvelle, et nous sommes ravis de voir que les aperçus générés par l'IA de Google ont été supprimés dans ces cas précis ». Ce n'est pas la première fois que Google supprime les réponses erronées fournies par sa fonctionnalité AI Overviews dans les résultats de recherche.
Un porte-parole de Google a déclaré : « nous ne commentons pas les suppressions individuelles dans le cadre de la recherche. Lorsque les aperçus générés par l'IA omettent certains éléments contextuels, nous nous efforçons d'apporter des améliorations générales et nous prenons également des mesures conformément à nos politiques, le cas échéant ». Mais la suppression de ces réponses n'empêche pas l'IA d'en générer d'autres qui soient erronées.
« Si la question est posée différemment, un aperçu généré par l'IA potentiellement trompeur peut toujours être fourni et nous restons préoccupés par le fait que d'autres informations sur la santé produites par l'IA peuvent être inexactes et prêter à confusion », a déclaré Vanessa Hebditch. Selon elle, le fait de saisir de légères variations des requêtes originales dans le moteur de recherche déclenchait l'affichage d'aperçus générés par l'IA.
« C'était très inquiétant. De plus, les aperçus ne préviennent pas que quelqu'un peut obtenir des résultats normaux pour ces tests alors qu'il souffre d'une maladie hépatique grave et a besoin de soins médicaux supplémentaires. Cette fausse assurance pourrait être très néfaste », a déclaré Vanessa Hebditch.
Google, qui détient 91 % des parts du marché mondial des moteurs de recherche, a déclaré qu'il examine les nouveaux exemples fournis par l'équipe. Vanessa Hebditch a ajouté : « notre plus grande préoccupation dans tout cela est qu'il s'agit de chipoter sur un seul résultat de recherche et que Google peut simplement désactiver les aperçus de l'IA pour celui-ci, mais cela ne résout pas le problème plus large des aperçus de l'IA pour la santé ».
Critiques des spécialistes en santé et des organisations spécialisées
Malgré les risques pour les utilisateurs, Google est réticent à l'idée de retirer purement et simplement la fonctionnalité AI Overviews de son moteur de recherche. Cette fonctionnalité manque de fiabilité et expose les utilisateurs de nombreux risques. « Les résumés générés par l'IA de Google sont d'une qualité déplorable. Ils se contentent invariablement de reprendre la prémisse de votre question et de la reformuler comme un fait », a écrit un critique.
Les experts de la santé appellent Google à déployer des efforts pour renforcer la fiabilité de son outil. « Des millions d'adultes dans le monde ont déjà du mal à accéder à des informations fiables sur la santé. C'est pourquoi il est si important que Google oriente les gens vers des informations fiables et documentées sur la santé et vers les offres de soins proposées par des organismes de santé dignes de confiance », a déclaré Vanessa Farrington.
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
