IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Dangereux et alarmant » : Google supprime certains de ses résumés générés par IA après avoir mis en danger la santé des utilisateurs.
Une étude alerte sur le manque de fiabilité de la fonction AI Overviews

Le , par Mathis Lucas

0PARTAGES

14  0 
La fonction « AI Overviews » de Google Search est désormais disponible à l'échelle mondiale. Elle affiche en haut de la page de résultats un court résumé rédigé par une IA. Ce résumé synthétise des informations provenant de plusieurs sources du Web afin de répondre directement à la question. Elle a entraîné une forte baisse des clics sur les liens des résultats de recherche. Mais cette fonction génère parfois des résumés étranges et erronés, voire dangereux. Une récente enquête a révélé qu'un certain nombre de résumés médicaux générés par l'IA fournissaient des informations inexactes ou trompeuses. Google a été contraint de les supprimer.

Google Search a ajouté la fonction « AI Overviews » (« aperçus de l'IA ») le 14 mai 2024. Il s'agit de résumés concis générés par l'IA et qui apparaissent directement sur les pages de résultats de recherche de Google. Cette fonction est conçue pour aider les internautes à comprendre rapidement un sujet en combinant des informations provenant de différentes sources, dont les pages Web de résultats de recherche et la base de connaissances de Google.

Les résumés sont placés en haut de la page des résultats de recherche, et au-dessus des résultats rédigés par des humains. Peu après son lancement, les utilisateurs ont commencé à partager sur les réseaux sociaux les captures d'écran des réponses les plus farfelues générées par cette fonctionnalité.

Dans un cas, l'IA de Google a dit à un utilisateur de mettre de la colle sur sa pizza afin de faire adhérer le fromage. Elle a aussi conseillé aux utilisateurs de manger trois cailloux par jour, et s'est trompée en recommandant des champions vénéneux. Ces gaffes répétées ont soulevé des préoccupations concernant la sécurité de cette fonctionnalité et l’opportunité de la maintenir. Google a tout de même poursuivi le déploiement à l'échelle mondiale.

Les utilisateurs exposés à de faux résumés sur les questions de santé

Une récente enquête menée par The Guardian révèle que les aperçus fournis par l'IA contenaient des informations inexactes et erronées lorsqu'ils étaient interrogés sur des analyses sanguines. Google insiste sur le fait que les aperçus générés par son IA sont « utiles » et « fiables ». Mais le rapport de l'étude indique que certains de ces résumés fournissaient des informations de santé inexactes, exposant la santé des utilisateurs à de nombreux risques.


Dans un cas qualifié de « dangereux » et « alarmant » par les experts, l'IA de Google a fourni des informations erronées sur des tests cruciaux de la fonction hépatique, pouvant amener des personnes atteintes d'une maladie grave du foie à penser à tort qu'elles étaient en bonne santé.

En tapant « quelle est la fourchette normale pour les tests sanguins du foie », l'équipe a constaté que le moteur de recherche fournissait une multitude de chiffres, sans contexte et sans tenir compte de la nationalité, du sexe, de l'origine ethnique ou de l'âge des patients. Selon les experts, ce que l'IA de Google considérait comme normal pouvait différer considérablement de ce qui était réellement considéré comme normal dans les pratiques médicales.

Les résumés pouvaient amener des patients gravement malades à penser à tort que leurs résultats d'examens étaient normaux et à ne pas se présenter aux rendez-vous médicaux de suivi. À l'issue de l'enquête, le géant de la recherche a supprimé les aperçus générés par l'IA pour les termes de recherche « quelle est la fourchette normale pour les tests sanguins hépatiques » et « quelle est la fourchette normale pour les tests de la fonction hépatique ».

Un test de la fonction hépatique (liver function test - LFT) est un ensemble de différents tests sanguins. Comprendre les résultats et savoir quoi faire ensuite est complexe et implique bien plus que la simple comparaison d'une série de chiffres. Mais selon le rapport indique, les aperçus de l'IA présentent une liste de tests en gras, ce qui fait que les lecteurs peuvent facilement oublier que ces chiffres ne sont peut-être même pas les bons pour leur test.

Le risque de faux résumés demeure malgré les réponses supprimées

Vanessa Hebditch, directrice de la communication et des politiques au British Liver Trust, une association caritative dédiée à la santé du foie, a déclaré : « c'est une excellente nouvelle, et nous sommes ravis de voir que les aperçus générés par l'IA de Google ont été supprimés dans ces cas précis ». Ce n'est pas la première fois que Google supprime les réponses erronées fournies par sa fonctionnalité AI Overviews dans les résultats de recherche.

Un porte-parole de Google a déclaré : « nous ne commentons pas les suppressions individuelles dans le cadre de la recherche. Lorsque les aperçus générés par l'IA omettent certains éléments contextuels, nous nous efforçons d'apporter des améliorations générales et nous prenons également des mesures conformément à nos politiques, le cas échéant ». Mais la suppression de ces réponses n'empêche pas l'IA d'en générer d'autres qui soient erronées.

« Si la question est posée différemment, un aperçu généré par l'IA potentiellement trompeur peut toujours être fourni et nous restons préoccupés par le fait que d'autres informations sur la santé produites par l'IA peuvent être inexactes et prêter à confusion », a déclaré Vanessa Hebditch. Selon elle, le fait de saisir de légères variations des requêtes originales dans le moteur de recherche déclenchait l'affichage d'aperçus générés par l'IA.

« C'était très inquiétant. De plus, les aperçus ne préviennent pas que quelqu'un peut obtenir des résultats normaux pour ces tests alors qu'il souffre d'une maladie hépatique grave et a besoin de soins médicaux supplémentaires. Cette fausse assurance pourrait être très néfaste », a déclaré Vanessa Hebditch.

Google, qui détient 91 % des parts du marché mondial des moteurs de recherche, a déclaré qu'il examine les nouveaux exemples fournis par l'équipe. Vanessa Hebditch a ajouté : « notre plus grande préoccupation dans tout cela est qu'il s'agit de chipoter sur un seul résultat de recherche et que Google peut simplement désactiver les aperçus de l'IA pour celui-ci, mais cela ne résout pas le problème plus large des aperçus de l'IA pour la santé ».

Critiques des spécialistes en santé et des organisations spécialisées

Malgré les risques pour les utilisateurs, Google est réticent à l'idée de retirer purement et simplement la fonctionnalité AI Overviews de son moteur de recherche. Cette fonctionnalité manque de fiabilité et expose les utilisateurs de nombreux risques. « Les résumés générés par l'IA de Google sont d'une qualité déplorable. Ils se contentent invariablement de reprendre la prémisse de votre question et de la reformuler comme un fait », a écrit un critique.


Les experts de la santé appellent Google à déployer des efforts pour renforcer la fiabilité de son outil. « Des millions d'adultes dans le monde ont déjà du mal à accéder à des informations fiables sur la santé. C'est pourquoi il est si important que Google oriente les gens vers des informations fiables et documentées sur la santé et vers les offres de soins proposées par des organismes de santé dignes de confiance », a déclaré Vanessa Farrington.

Citation Envoyé par Critique


Le schéma est révélateur : déployer d'abord, corriger ensuite, répéter. Google n'a supprimé ces requêtes spécifiques qu'après l'enquête du Guardian. Posez la même question en la reformulant légèrement et vous obtiendrez toujours des résultats potentiellement dangereux. Il ne s'agit pas d'un bogue qu'ils corrigent, mais d'un modèle commercial qui fonctionne comme prévu.

Livrer rapidement, itérer en fonction des plaintes, laisser les utilisateurs jouer le rôle de l'équipe d'assurance qualité. Cela fonctionne bien pour la plupart des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/01/2026 à 21:11
Ce qu'il se trouve dangereux surtout est que ces avis sont suivis en toute confiance par les utilisateurs moyens car la machine ne se trompe pas. Cela remet en cause la confiance que l'on peut avoir en Google même si c'est l'IA qui se gaufre. Une machine qui donne un résultat est plus à même d'induire en erreur un utilisateur qu'un être humain car une machine c'est binaire. Donc dans certains cas on en rigole comme dit dans la news mais sur le cas de la médecine, c'est dramatique. Maintenir ce système de réponse et le diffuser est dans tous les cas irresponsable.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/01/2026 à 22:03
Citation Envoyé par marsupial Voir le message
Donc dans certains cas on en rigole comme dit dans la news mais sur le cas de la médecine, c'est dramatique. Maintenir ce système de réponse et le diffuser est dans tous les cas irresponsable.
C'est l'usage en général de l'IA qui est irresponsable!

Comment peut-on faire confiance à une technologie qui est connue pour faire des erreurs?

Comment peut-on accepter les discours des promoteurs de l'IA qui crient sur tous les toits que c'est une techno qui peut remplacer l'être humain dans toutes les activités?

Vous avez tous entendu parlé de la catastrophe qui a vu dans la nuit du 1er janvier 40 personnes (principalement des ado) mourir brûlées et 119 blessés finir dans les hôpitaux au département des grands brûlés en Suisse... Voilà que le rédacteur en chef du journal local pond un édito pour commenter l'évènement et comment commence son texte?

"En ce jeudi 1er avril..."

Le journal m'est tombé des mains et j'ai failli m'étouffer avec le café du matin...

Et oui, le bonhomme a fait corriger son texte par une IA sans relire ensuite son texte et l'a envoyé à l'impression

Mais pourquoi est-ce que l'IA a remplacé "ce jeudi 1er janvier..." par "ce jeudi 1er avril"? Ben... Bêtement, parce que statistiquement l'IA a trouvé plus souvent sur le net des références au 1er avril plutôt qu'au 1er janvier!!!

Et oui, l'IA n'a rien d'intelligent et c'est très con!
0  0