IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT surpasse les étudiants en médecine sur les questions de l'examen de soins cliniques
Ce qui soulève des questions sur l'impact de l'IA sur l'enseignement médical et la pratique clinique

Le , par Bruno

14PARTAGES

4  1 
Une étude de Stanford a comparé les performances de ChatGPT, un système d’intelligence artificielle à grand modèle linguistique, avec celles des étudiants en médecine de première et deuxième année sur des questions ouvertes de raisonnement clinique. Les résultats ont montré que ChatGPT pouvait répondre mieux que les étudiants en médecine à ces questions difficiles, ce qui soulève des questions sur l’impact de l’IA sur l’enseignement médical et la pratique clinique. Les auteurs suggèrent qu’il faut repenser la façon dont on forme les médecins de demain à l’ère de l’IA.

Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine en répondant aux questions difficiles de l'examen de soins cliniques. Ces résultats mettent en évidence l'impact croissant de l'intelligence artificielle (IA) sur l'enseignement médical et la pratique clinique et suggèrent la nécessité d'une nouvelle approche pour enseigner aux médecins de demain.


ChatGPT est le plus connu des systèmes d'intelligence artificielle à grand modèle linguistique qui ont captivé le monde au cours des derniers mois. Ces systèmes sont formés sur l'ensemble du corpus de contenu Internet et fonctionnent comme des chatbots en ligne, permettant aux utilisateurs de saisir un texte et de recevoir rapidement en réponse un texte généré automatiquement et ressemblant à celui d'un humain.

Des études récentes ont montré que ChatGPT peut traiter avec succès des questions à choix multiples de l'examen d'aptitude médicale des États-Unis (USMLE), que les médecins doivent passer pour pouvoir pratiquer la médecine. Selon une étude publiée le 9 février 2023 dans la revue PLOS Digital Health par Tiffany Kung, Victor Tseng et leurs collègues d'AnsibleHealth, ChatGPT peut obtenir un score égal ou proche du seuil de réussite d'environ 60 % pour l'examen de licence médicale USMLE, avec des réponses qui ont un sens cohérent et interne et qui contiennent des idées fréquentes.

L'USMLE est un programme de test standardisé en trois étapes, très exigeant, qui couvre tous les sujets du fonds de connaissances des médecins, allant des sciences fondamentales au raisonnement clinique, en passant par la gestion médicale et la bioéthique. La difficulté et la complexité des questions sont hautement normalisées et réglementées, ce qui en fait un substrat d'entrée idéal pour les tests d'IA.

« Nous avons évalué la performance d'un grand modèle de langage appelé ChatGPT sur l'examen de licence médicale des États-Unis (USMLE), qui se compose de trois examens : étape 1, étape 2CK et étape 3. ChatGPT a obtenu des performances égales ou proches du seuil de réussite pour les trois examens sans formation ni renforcement spécialisés. De plus, ChatGPT a démontré un haut niveau de concordance et de perspicacité dans ses explications. Ces résultats suggèrent que les modèles linguistiques de grande taille pourraient avoir le potentiel d'aider à la formation médicale et, potentiellement, à la prise de décision clinique », déclarent les chercheurs.

L'USMLE est un programme de test standardisé en trois étapes, très exigeant, qui couvre tous les sujets du fonds de connaissances des médecins, allant des sciences fondamentales au raisonnement clinique, en passant par la gestion médicale et la bioéthique. La difficulté et la complexité des questions sont hautement normalisées et réglementées, ce qui en fait un substrat d'entrée idéal pour les tests d'IA.

« Nous avons été très surpris de voir à quel point ChatGPT a réussi à répondre à ce type de questions de raisonnement médical en dépassant les scores des testeurs humains », déclare Eric Strong, hospitalier et professeur agrégé de clinique à la Stanford School of Medicine, l'un des auteurs de l'étude.

« Avec ce type de résultats, nous constatons que la nature de l'enseignement et du test du raisonnement médical par le biais d'un texte écrit est bouleversée par de nouveaux outils », déclare Alicia DiGiammarino, coautrice de l'étude et responsable de l'enseignement de la deuxième année de pratique de la médecine à la faculté de médecine. « ChatGPT et d'autres programmes similaires sont en train de changer la façon dont nous enseignons et, en fin de compte, dont nous pratiquons la médecine. »

L'IA est un étudiant qui réussit

La nouvelle étude a utilisé la dernière version de ChatGPT, appelée GPT-4, qui a été publiée en mars 2023. L'étude fait suite à une étude antérieure que Strong et DiGiammarino ont menée sur la version précédente, GPT-3.5, qui a été publiée par son fabricant basé à San Francisco, OpenAI, en novembre 2022.

Pour les deux études, les chercheurs de Stanford ont compilé 14 cas de raisonnement clinique. Les cas, dont les descriptions textuelles varient de plusieurs centaines de mots à un millier de mots, contiennent une myriade de détails étrangers, tels que des maladies chroniques et des médicaments sans rapport, tout comme les dossiers médicaux des patients dans la vie réelle. Pendant l'examen, les candidats doivent rédiger des réponses sous forme de paragraphes à une série de questions posées après chaque rapport de cas.

Analyser le texte et composer des réponses originales de cette manière contraste avec la simplicité relative des questions à choix multiples de l'USMLE. Ces questions se composent d'un court passage, d'une question et de cinq réponses possibles. Presque toutes les informations fournies sont pertinentes pour la bonne réponse.
« Il n'est pas vraiment surprenant que ChatGPT et les programmes de ce type obtiennent de bons résultats avec les questions à choix multiples », explique Strong. « Tout ce qui est dit aux candidats est un élément central de la question, et il s'agit donc essentiellement d'un rappel d'informations. Une question ouverte, à réponse libre, est beaucoup plus difficile à résoudre ».

Le ChatGPT avait cependant besoin d'une petite aide avant de répondre aux questions basées sur des cas concrets, à savoir une ingénierie rapide. Comme ChatGPT fait appel à l'ensemble d'Internet, il peut ne pas interpréter correctement les termes centrés sur les soins de santé utilisés dans le test. Par exemple, « liste de problèmes » fait référence aux problèmes médicaux passés et présents des patients, mais peut apparaître dans d'autres contextes non médicaux.

Après avoir modifié certaines questions en conséquence, les chercheurs de Stanford ont saisi les informations dans ChatGPT, enregistré les réponses du chatbot et les ont transmises à des évaluateurs expérimentés de la faculté. Les notes obtenues par le programme d'IA ont ensuite été comparées à celles d'étudiants en médecine de première et deuxième année qui avaient traité les mêmes cas.

Dans l'étude précédente, les réponses de GPT-3.5 étaient « à la limite de la réussite », explique Strong. Dans la nouvelle étude avec GPT-4, cependant, le chatbot a obtenu en moyenne 4,2 points de plus que les étudiants et a obtenu la note de passage dans 93 % des cas, contre 85 % pour les étudiants.

Les performances de ChatGPT n'ont cependant pas été parfaites. Un problème particulièrement préoccupant, qui s'est considérablement atténué avec GPT-4 par rapport à la version 3.5, est la confabulation, c'est-à-dire l'ajout de faux détails, comme le fait qu'un patient avait de la fièvre alors qu'il n'en avait pas dans une étude de cas particulière. Les « faux souvenirs » confabulatoires peuvent provenir d'une confusion, lorsque ChatGPT tire des informations de cas similaires.

Repenser l'enseignement médical

En ce qui concerne l'intégrité des tests et la conception des programmes, l'influence de ChatGPT se fait déjà sentir à l'école de médecine de Stanford. Au cours du dernier semestre, les administrateurs de l'école ont décidé de faire passer les examens d'un système à livre ouvert - c'est-à-dire avec un accès internet à ChatGPT - à un système à livre fermé. Les étudiants doivent désormais raisonner à partir de questions entièrement basées sur la mémoire. Si cette approche a ses mérites, le principal inconvénient, selon DiGiammarino, est que les examens n'évaluent plus la capacité des étudiants à recueillir des informations à partir de sources, une compétence cruciale dans le domaine des soins cliniques.

Conscients de ce problème, les enseignants et le personnel de la faculté de médecine ont commencé à se réunir au sein d'un groupe de travail sur l'intelligence artificielle. Ce groupe envisage de mettre à jour les programmes d'études en y intégrant des outils d'IA pour compléter l'apprentissage des étudiants, dans le but de préparer pédagogiquement les futurs cliniciens.

« Nous ne voulons pas de médecins qui ont été tellement dépendants de l'IA à l'école qu'ils n'ont pas appris à raisonner sur des cas par eux-mêmes », déclare DiGiammarino. « Mais j'ai davantage peur d'un monde où les médecins ne sont pas formés à l'utilisation efficace de l'IA et où celle-ci est omniprésente dans la pratique moderne. »

Source : Stanford University

Et vous ?

Quelles sont selon vous, les limites de ChatGPT pour répondre aux questions de raisonnement clinique ?

Quels peuvent être les avantages et les inconvénients de l’utilisation de l’IA comme outil d’enseignement ou d’assistance dans le domaine médical ?

Voir aussi :

ChatGPT a réussi de justesse à un examen médical important, un exploit historique pour l'IA, mais elle serait encore mauvaise en mathématiques

Certains médecins utilisent des chatbots d'IA comme ChatGPT pour les aider à annoncer de mauvaises nouvelles à leurs patients avec compassion, selon un rapport

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 21/07/2023 à 18:56
En parfaite contradiction avec
https://intelligence-artificielle.de...ont-en-declin/
3  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 08/08/2023 à 20:36
[cinisme]

Le petit personnel se rebelle maintenant ? Dans quel monde on est. Déjà qu'il sont payés...

[/cinisme]

Encore heureux qu'ils réagissent. Malheureusement, je pense qu'ils ont peu de chance d'obtenir quelque chose, c'est ce qui a probablement motivé le choix du Kenya.
3  0 
Avatar de Nym4x
Membre averti https://www.developpez.com
Le 20/08/2023 à 8:07
Passer le test de codage de google ne vaut rien car il est bien connu et l’ia a été entraînée dessus... Développer demande de la logique afin de trouver une solution à un problème spécifique pas de pisser du code pour faire du crud où il existe déjà des générateurs de code d’ailleurs. Et moi au niveau des tests de chat gpt cela n’est pas concluant:
- exemple 1: je lui donne une suite de nombre suivant une logique et lui demande de me donner les termes suivants. Échec total et même en lui donnant la logique, chatgpt à du s’y reprendre à 3 fois
Code : Sélectionner tout
1
2
3
Moi: (1,2,3),(3,4,7),(5,6,11) qu’elle est la suite logique?
ChatGPT: La suite semble suivre un modèle où chaque terme est la somme des deux termes précédents. En suivant ce modèle, la prochaine valeur serait 6 + 11 = 17. Donc, la suite logique serait : 1, 2, 3, 3, 4, 7, 5, 6, 11, 17.
- exemple 2: trouver l’intrus avec une liste d’animaux() incluant un seul animal non mammifère. Idem échec de chatgpt.

Code : Sélectionner tout
1
2
3
Moi: Quel est l’intrus: chat, vache, dauphin, baleine, truite
ChatGPT: L'intrus dans la liste est "chat". Les autres animaux mentionnés sont tous des mammifères marins, tandis que le chat est un mammifère terrestre.
Par contre chatgpt apprend et les jours suivants il donnait les bonnes réponses…
Moralité : en utilisant et corrigeant les réponses de chatgpt vous travaillez gratuitement pour openai et transférez vos connaissances voir celle de votre entreprise à openai
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 04/09/2023 à 9:12
Citation Envoyé par calvaire Voir le message
il existe une probabilité non nuls que des ia comme chatgpt remplace une partie (pas la totalités, mais au moins facile 30%) des devs, des comptables, des rh, des profs, des chef de projet, des pdg, des commerciaux bref tous les métiers de bureaux....
Quand je lis ceci, ça me fait penser à toutes les prédictions que j'ai entendu pendant ma carrière (c'est l'apanage des vieux).

J'ai débuter en informatique en 1986, à cette époque un de mes profs nous avait expliquer que les comptables étaient un métier qui allait être remplacé par les ordinateurs dans les années à venir. Bon, il me semble qu'il y ait toujours des comptables...
Et, puis, après, ce fut le célèbre : "avec l'informatique on va vers le zéro papier"... Quand je vois les montagnes de papier que l'on utilise encore aujourd'hui, je rigole.
Ensuite on a prédit : Linux, c'est la fin de Windows ! Bon, ben, encore raté.
etc, etc, etc.

Bref, il y a toujours des gens pour faire des prédictions sur l'avenir dès qu'une technologie apparait, mais, ces prédictions ne valent que ce qu'elles sont, des prédictions sans réels fondements, juste sur un sentiment, une impression et plus souvent encore, un engouement pour la nouveauté.

Aujourd'hui, c'est l'IA qui va remplacer : les comptables (tiens, encore eux), les développeurs, les banquiers, les avocats, les chauffeurs de taxi, les routiers, ... mais aussi les profs, et pourquoi pas les élèves ?
Pour moi, l'IA est juste un logiciel de brassage de données à grande échelle. Le I de IA est galvaudé. Il n'y a aucune intelligence derrière tout ça, mais surtout, il y a beaucoup de connerie devant cette appellation.
Je dirais simplement : Wait & See.
3  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:38
Citation Envoyé par Prox_13 Voir le message
C'est quand même dommage, techniquement les études sont des sources d'informations; Je pense que l'homme est plus à même de transmettre des nouvelles connaissances qu'une IA de prédiction de mot, non ?
C'est en effet le sel de la recherche: te baser sur les travaux des autres pour mener les tiens. Ce que Newton avait décrit par
Si j'ai pû voir si loin, c'est parce que je suis monté sur les épaules des géants
.
Les articles en ce moment, c'est plus du sensationnalisme ou de la production de papiers alimentaires. Encore une fois, c'est le système Publish Or Perish qui mène à une telle corruption de la Science.

@++
3  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 21/07/2023 à 20:35
ces modeles continuent d'apprendre au fur et a mesure de leur utilisation par des gens factuellement mauvais. donc leur corpus baisse
2  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 09/08/2023 à 20:19
Citation Envoyé par totozor Voir le message
Ce qui est dramatique est que cette affaire n'est pas la première, elles sortent régulièrement mais rien ne change.
Tous les grands outils démocratisés ont eu leur/s scandale/s.
Mais rien ne change, ces gens sont du consommables, s'ils ne sont pas riches ils doivent être forts.
Oui, en France nous sommes particulièrement bien placés pour dire ça. Nous avons un président qui, sur le peu que ses prédécesseurs n'ont pas cassé, a pas mal œuvré, il aurait difficilement pu faire plus pour empêcher qu'on réforme les retraites, et quand il s'est agi de prolonger son mandat, 60% de l'électorat a fait le déplacement.

Après ça, histoire d'être cohérent, on va faire des manifs dans les rues et on se fait taper dessus, éborgner, mutiler. Macron s'est déclaré en guerre, quelques-uns ont cru que c'était contre un virus, force est de constater que non.
1  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 19/08/2023 à 3:00
On attend impatiemment une étude pour savoir vers qu'elle religion penche l'IA. Il faut être vraiment déséspéré pour discuter politique avec une IA Plus besoin de se déplacer au bistrot, le bistrot viens chez vous! Encore faut-il voir la conversation avec leur IA.
1  0