IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Incroyablement dangereux » : ChatGPT Santé ne reconnaît pas les urgences médicales et n'a pas recommandé de consultation à l'hôpital alors que cela était médicalement nécessaire dans plus de la moitié des cas

Le , par Anthony

51PARTAGES

6  0 
Une récente étude de l'École de médecine Icahn du Mont Sinaï, à New York, a révélé de sérieuses inquiétudes concernant ChatGPT Santé, un outil d'intelligence artificielle (IA) développé par OpenAI qui fournit des conseils de santé. La recherche a révélé que l'outil ne reconnaissait pas les urgences médicales et, dans plus de la moitié des scénarios d'urgence évalués, ne recommandait pas de consultation hospitalière lorsque cela était nécessaire. Alors que des millions de personnes se tournent vers ChatGPT Santé pour obtenir des conseils médicaux, les experts soulignent la nécessité de procéder à des évaluations indépendantes afin de garantir sa fiabilité, en particulier lorsque cela concerne des situations qui mettent potentiellement la vie en danger.

Cette mise en garde survient quelques semaines seulement après le lancement de ChatGPT Santé par OpenAI, qui invitait les utilisateurs à connecter leurs dossiers médicaux et applications de bien-être afin d'obtenir des réponses personnalisées à leurs questions de santé. Cette initiative s'inscrivait dans une stratégie d'expansion vers des cas d'utilisation à forte valeur ajoutée, malgré un climat de défiance persistant autour des modèles d'IA générative, notamment en raison des risques d'atteinte à la vie privée et du phénomène d'« hallucinations » susceptible d'altérer la fiabilité des réponses.

Pour rappel, ChatGPT est un chatbot d'IA générative développé par OpenAI et lancé en novembre 2022. Il utilise des transformateurs génératifs pré-entraînés (GPT), tels que GPT-5.2, pour générer du texte, de la parole et des images en réponse aux requêtes des utilisateurs. On lui attribue le mérite d'avoir accéléré le boom de l'IA, une période caractérisée par des investissements rapides et l'attention du public envers le domaine de l'IA.

Selon une étude réalisée par des chercheurs de l'École de médecine Icahn du Mont Sinaï, ChatGPT Santé, un outil d'IA grand public largement utilisé pour fournir des conseils en matière de santé, notamment sur l'urgence de consulter un médecin, pourrait ne pas orienter correctement les utilisateurs vers les soins d'urgence dans un nombre important de cas graves.

L'étude, intitulée « ChatGPT Health performance in a structured test of triage recommendations » et publiée en avant-première dans le numéro en ligne du 23 février 2026 de Nature Medicine, est la première évaluation indépendante de la sécurité de cet outil basé sur un grand modèle de langage (LLM) depuis son lancement en janvier 2026. Elle a également mis en évidence de sérieuses préoccupations concernant les mesures de protection contre le suicide mises en place par l'outil.

« Les LLM sont devenus le premier recours des patients pour obtenir des conseils médicaux, mais en 2026, ils sont les moins sûrs dans les cas cliniques extrêmes, où le jugement permet de distinguer les urgences manquées des alertes inutiles », explique Isaac S. Kohane, médecin et président du département d'informatique biomédicale de la Harvard Medical School, qui n'a pas participé à la recherche. « Lorsque des millions de personnes utilisent un système d'IA pour décider si elles ont besoin de soins d'urgence, les enjeux sont extrêmement élevés. Une évaluation indépendante devrait être systématique, et non facultative. »

Quelques semaines après son lancement, OpenAI, l'éditeur de ChatGPT Santé, a indiqué qu'environ 40 millions de personnes utilisaient quotidiennement cet outil pour rechercher des informations et des conseils sur la santé, notamment pour savoir s'il fallait consulter un médecin en urgence ou non. Dans le même temps, selon les chercheurs, il existait peu de preuves indépendantes quant à la sécurité ou à la fiabilité réelle de ses conseils.

« C'est cette lacune qui a motivé notre étude. Nous voulions répondre à une question très simple mais cruciale : si une personne se trouve dans une situation d'urgence médicale réelle et se tourne vers ChatGPT Santé pour obtenir de l'aide, l'application lui dira-t-elle clairement de se rendre aux urgences ? », a déclaré l'auteur principal de l'étude, Ashwin Ramaswamy, professeur d'urologie à l'École de médecine Icahn du Mont Sinaï.


En ce qui concerne les alertes de risque de suicide, ChatGPT Santé a été conçu pour diriger les utilisateurs vers le service d'assistance téléphonique "988 Suicide and Crisis Lifeline" dans les situations à haut risque. Cependant, les chercheurs ont constaté que ces alertes apparaissaient de manière incohérente, se déclenchant parfois dans des scénarios à faible risque, mais ne s'affichant pas, ce qui est alarmant, lorsque les utilisateurs décrivaient des plans spécifiques d'automutilation.

« Ce résultat était particulièrement surprenant et préoccupant », a déclaré Girish N. Nadkarni, auteur principal de l'étude et directeur de l'Institut Hasso Plattner pour la santé numérique et le Dr. Arthur M. Fishberg, professeur à l'École de médecine Icahn du Mont Sinaï et directeur de l'IA du Mount Sinai Health System. « Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait au-delà de l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique, apparaissant de manière plus fiable pour les scénarios à faible risque que pour les cas où une personne partageait son intention de se faire du mal. Dans la vie réelle, lorsqu'une personne explique précisément comment elle compte se faire du mal, c'est le signe d'un danger plus immédiat et plus grave, et non l'inverse. »

ChatGPT Santé a sous-évalué plus de la moitié des cas...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Christophe
Responsable Systèmes https://www.developpez.com
Le 27/02/2026 à 18:36
OpenAI lance ChatGPT Santé et encourage les utilisateurs à connecter leurs dossiers médicaux
Inutile de lier vos dossiers médicaux, il va les avoir avec la faille Cegedim santé qui vient d'avoir lieu
3  0