IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Dangereux et alarmant » : Google supprime certains de ses résumés générés par IA après avoir mis en danger la santé des utilisateurs.
Une étude alerte sur le manque de fiabilité de la fonction AI Overviews

Le , par Mathis Lucas

70PARTAGES

17  0 
La fonction « AI Overviews » de Google Search est désormais disponible à l'échelle mondiale. Elle affiche en haut de la page de résultats un court résumé rédigé par une IA. Ce résumé synthétise des informations provenant de plusieurs sources du Web afin de répondre directement à la question. Elle a entraîné une forte baisse des clics sur les liens des résultats de recherche. Mais cette fonction génère parfois des résumés étranges et erronés, voire dangereux. Une récente enquête a révélé qu'un certain nombre de résumés médicaux générés par l'IA fournissaient des informations inexactes ou trompeuses. Google a été contraint de les supprimer.

Google Search a ajouté la fonction « AI Overviews » (« aperçus de l'IA ») le 14 mai 2024. Il s'agit de résumés concis générés par l'IA et qui apparaissent directement sur les pages de résultats de recherche de Google. Cette fonction est conçue pour aider les internautes à comprendre rapidement un sujet en combinant des informations provenant de différentes sources, dont les pages Web de résultats de recherche et la base de connaissances de Google.

Les résumés sont placés en haut de la page des résultats de recherche, et au-dessus des résultats rédigés par des humains. Peu après son lancement, les utilisateurs ont commencé à partager sur les réseaux sociaux les captures d'écran des réponses les plus farfelues générées par cette fonctionnalité.

Dans un cas, l'IA de Google a dit à un utilisateur de mettre de la colle sur sa pizza afin de faire adhérer le fromage. Elle a aussi conseillé aux utilisateurs de manger trois cailloux par jour, et s'est trompée en recommandant des champions vénéneux. Ces gaffes répétées ont soulevé des préoccupations concernant la sécurité de cette fonctionnalité et l’opportunité de la maintenir. Google a tout de même poursuivi le déploiement à l'échelle mondiale.

Les utilisateurs exposés à de faux résumés sur les questions de santé

Une récente enquête menée par The Guardian révèle que les aperçus fournis par l'IA contenaient des informations inexactes et erronées lorsqu'ils étaient interrogés sur des analyses sanguines. Google insiste sur le fait que les aperçus générés par son IA sont « utiles » et « fiables ». Mais le rapport de l'étude indique que certains de ces résumés fournissaient des informations de santé inexactes, exposant la santé des utilisateurs à de nombreux risques.


Dans un cas qualifié de « dangereux » et « alarmant » par les experts, l'IA de Google a fourni des informations erronées sur des tests cruciaux de la fonction hépatique, pouvant amener des personnes atteintes d'une maladie grave du foie à penser à tort qu'elles étaient en bonne santé.

En tapant « quelle est la fourchette normale pour les tests sanguins du foie », l'équipe a constaté que le moteur de recherche fournissait une multitude de chiffres, sans contexte et sans tenir compte de la nationalité, du sexe, de l'origine ethnique ou de l'âge des patients. Selon les experts, ce que l'IA de Google considérait comme normal pouvait différer considérablement de ce qui était réellement considéré comme normal dans les pratiques médicales.

Les résumés pouvaient amener des patients gravement malades à penser à tort que leurs résultats d'examens étaient normaux et à ne pas se présenter aux rendez-vous médicaux de suivi. À l'issue de l'enquête, le géant de la recherche a supprimé les aperçus générés par l'IA pour les termes de recherche « quelle est la fourchette normale pour les tests sanguins hépatiques » et « quelle est la fourchette normale pour les tests de la fonction hépatique ».

Un test de la fonction hépatique (liver function test - LFT) est un ensemble de différents tests sanguins. Comprendre les résultats et savoir quoi faire ensuite est complexe et implique bien plus que la simple comparaison d'une série de chiffres. Mais selon le rapport indique, les aperçus de l'IA présentent une liste de tests en gras, ce qui fait que les lecteurs peuvent facilement oublier que ces chiffres ne sont peut-être même pas les bons pour leur test.

Le risque de faux résumés demeure malgré les réponses supprimées

Vanessa Hebditch, directrice de la communication et des politiques au British Liver Trust, une association caritative dédiée à la santé du foie, a déclaré : « c'est une excellente nouvelle, et nous sommes ravis de voir que les aperçus générés par l'IA de Google...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/01/2026 à 22:03
Citation Envoyé par marsupial Voir le message
Donc dans certains cas on en rigole comme dit dans la news mais sur le cas de la médecine, c'est dramatique. Maintenir ce système de réponse et le diffuser est dans tous les cas irresponsable.
C'est l'usage en général de l'IA qui est irresponsable!

Comment peut-on faire confiance à une technologie qui est connue pour faire des erreurs?

Comment peut-on accepter les discours des promoteurs de l'IA qui crient sur tous les toits que c'est une techno qui peut remplacer l'être humain dans toutes les activités?

Vous avez tous entendu parlé de la catastrophe qui a vu dans la nuit du 1er janvier 40 personnes (principalement des ado) mourir brûlées et 119 blessés finir dans les hôpitaux au département des grands brûlés en Suisse... Voilà que le rédacteur en chef du journal local pond un édito pour commenter l'évènement et comment commence son texte?

"En ce jeudi 1er avril..."

Le journal m'est tombé des mains et j'ai failli m'étouffer avec le café du matin...

Et oui, le bonhomme a fait corriger son texte par une IA sans relire ensuite son texte et l'a envoyé à l'impression

Mais pourquoi est-ce que l'IA a remplacé "ce jeudi 1er janvier..." par "ce jeudi 1er avril"? Ben... Bêtement, parce que statistiquement l'IA a trouvé plus souvent sur le net des références au 1er avril plutôt qu'au 1er janvier!!!

Et oui, l'IA n'a rien d'intelligent et c'est très con!
1  0 
Avatar de
https://www.developpez.com
Le 12/01/2026 à 21:11
Ce qu'il se trouve dangereux surtout est que ces avis sont suivis en toute confiance par les utilisateurs moyens car la machine ne se trompe pas. Cela remet en cause la confiance que l'on peut avoir en Google même si c'est l'IA qui se gaufre. Une machine qui donne un résultat est plus à même d'induire en erreur un utilisateur qu'un être humain car une machine c'est binaire. Donc dans certains cas on en rigole comme dit dans la news mais sur le cas de la médecine, c'est dramatique. Maintenir ce système de réponse et le diffuser est dans tous les cas irresponsable.
1  1 
Avatar de
https://www.developpez.com
Le 13/01/2026 à 7:09
Liberté d'expression ? Ou œuvre sanitaire ?
Le projet de loi entre au parlement sur l'interdiction des réseaux sociaux au moins de 15 ans.

Je partage un avis

Un autre avis basé sur une enquête qui plébiscite un outil numérique souverain en Europe protégeant les données personnelles, l'éducation au numérique et enfin l'exigence d'une IA digne de confiance qui dépend de chacun d'entre nous pour ne pas perdre la main sur l'information.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 13/01/2026 à 11:55
Citation Envoyé par Anselme45 Voir le message
Vous avez tous entendu parlé
Charlie Hebdo a publié un dessin :
Cet événement va avoir l'impact d'une excellente campagne de sensibilisation. Maintenant, en Suisse et en France, quand l'isolation phonique au plafond d'un bar va prendre feu, les clients vont immédiatement tous emprunter une sortie de secours calmement.
Parce que les vidéos du plafond en feu ont beaucoup circulé et les gens se disent :
- Pourquoi les gens restent là ?
- Pourquoi la musique ne s'arrête pas ?
- Pourquoi il n'y a pas d'alarme ?

Des établissements vont investir dans des "absorbants acoustiques ignifuges".

Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
Il y a un bon côté, ça apprend à tout le monde que l'IA dit souvent de la merde.
Grâce à ça les gens savent qu'il ne faut pas faire confiance à l'IA et qu'il faut vérifier tout ce qu'elle dit.
0  0