Carbon Health est une chaîne de soins de santé qui utilise Carby l'outil d'IA basé sur GPT-4 d’OpenAI pour générer des dossiers médicaux à partir des conversations entre les médecins et les patients (lors de la consultation).
Le PDG de Carbon Health, Eren Bali, a déclaré que l'outil, appelé Carby, est directement intégré dans le système de dossiers médicaux électroniques (EHR) de l'entreprise et fonctionne sur le modèle de langage GPT-4. L’outil, surnommé Carby AI, est intégré au système de dossiers médicaux électroniques de Carbon Health et est utilisé dans plus de 100 cliniques. Selon Carbon Health, Carby peut produire des résumés de santé en 4 minutes, alors qu’un médecin humain aurait besoin de 16 minutes pour obtenir les mêmes résultats. Cela permettrait aux cliniques d’accepter plus de patients qu’auparavant. Carby recueille les informations et les signes vitaux des patients et résume les dossiers médicaux et les diagnostics.
OpenAI's GPT-4 Powers Carbon Health's Medical Records 🩺🤖
— NewsTime AI (@NewsTimeAI) June 6, 2023
The US healthcare provider has introduced an #AI tool, #Carby, powered by #OpenAI's GPT-4, to create medical records based on patient-doctor interactions. #AInews #ChatGPT https://t.co/md37fcLIBk pic.twitter.com/4TMeyZkHGp
Selon Carbon Health, le modèle est déjà utilisé par plus de 130 cliniques, et plus de 600 membres du personnel ont accès à l'outil. L'outil aurait aidé l'une des cliniques de la chaîne à augmenter les admissions de patients de 30 %. « En combinant une technologie intelligente avec des cliniques modernes et accueillantes, Carbon Health offre une expérience unique et transparente. Le personnel de notre nouvelle clinique de soins d'urgence à Carytown Place dans la RVA, se consacre à fournir le plus haut niveau de soins aux membres de notre communauté », Carbon Health.
L’initiative de Carbon Health présente des avantages potentiels, mais aussi des risques et des limites. Parmi les avantages, on peut citer :
- la réduction du temps consacré à la documentation médicale, ce qui peut diminuer la charge de travail et le stress des médecins, ainsi que les erreurs humaines ;
- l’amélioration de l’accessibilité et de la qualité des soins, ce qui peut augmenter la satisfaction et la fidélisation des patients, ainsi que les revenus des cliniques ;
- la stimulation de l’innovation dans le domaine de la santé, ce qui peut favoriser le développement et l’adoption de nouvelles technologies et pratiques médicales.
Parmi les risques et les limites, on peut citer :
- la fiabilité et la sécurité du modèle GPT-4, qui peut produire des erreurs ou des hallucinations, notamment lorsqu’il s’agit de questions sans réponse unique ou claire, ou lorsqu’il manque de données ou de contexte ;
- la protection de la vie privée et du consentement des patients, qui doivent accepter d’être enregistrés et traités par l’IA, ce qui pose des questions éthiques et juridiques sur l’utilisation et le partage des données personnelles et sensibles ;
- l’éthique et la responsabilité des décisions médicales, qui doivent être revues et validées par les médecins humains, ce qui pose des défis pour la formation, la supervision et l’évaluation des professionnels de santé utilisant l’IA.
Il faudrait donc évaluer attentivement les impacts et les implications de l’utilisation de GPT-4 dans le domaine médical, en tenant compte des besoins et des attentes des parties prenantes, notamment les patients, les médecins, les régulateurs et les développeurs. Il faudrait également établir des normes et des protocoles pour garantir la qualité, la transparence et la sécurité des services basés sur l’IA. Enfin, il faudrait encourager une collaboration étroite entre les experts en IA et en médecine pour assurer une utilisation éthique et efficace de GPT-4 comme un outil d’assistance et non de substitution aux médecins humains.
« L'utilisation de scribes et de services de transcription est une pratique courante dans le secteur des soins de santé, et la majorité des patients consentent à ce que leur consultation soit enregistrée par leur prestataire », a déclaré un porte-parole. « Une fois que la note est prête dans notre DSE, nous informons le prestataire de revoir, d'éditer et de valider le résumé de la prise de décision médicale si nécessaire (l'approbation du résumé de la visite est toujours effectuée par le prestataire). Nous continuons d'affiner cette fonctionnalité en tenant compte des commentaires des prestataires. »
D'autres entreprises, y compris des start-ups, s'efforcent également de développer des logiciels similaires. Par exemple, Abridge a conclu un partenariat avec le système de santé de l'université du Kansas pour tester son système de transcription, tandis qu'Ambience Healthcare, financé par le fonds Startup de l'OpenAI, a lancé AutoScribe, un autre produit alimenté par le GPT-4 et utilisé dans les cliniques de soins primaires de Californie.
Les modèles d'IA générative ne sont pas parfaits et produisent souvent des erreurs. Les médecins doivent donc vérifier le texte généré par l'IA. Carbon Health affirme que 88 % du verbiage peut être accepté sans modifications. L’initiative de Carbon Health présente des avantages potentiels, mais aussi des risques et des limites. Parmi les avantages, on peut citer la réduction du temps consacré à la documentation médicale, l’amélioration de l’accessibilité et de la qualité des soins, et la stimulation de l’innovation dans le domaine de la santé.
Parmi les risques et les limites, on peut citer la fiabilité et la sécurité du modèle GPT-4, qui peut produire des erreurs ou des hallucinations, la protection de la vie privée et du consentement des patients, qui doivent accepter d’être enregistrés et traités par l’IA, et l’éthique et la responsabilité des décisions médicales, qui doivent être revues et validées par les médecins humains. Avec le consentement du patient, Carby utilise le service en cloud AWS Transcribe Medical d'Amazon pour convertir les conversations de consultation en texte.
Sources : Newstime, Securitylab
Et vous ?
Quels sont selon vous, les risques potentiels de l’utilisation de GPT-4 pour générer des dossiers médicaux, notamment en termes de sécurité, de confidentialité et d’éthique ?
Quels peuvent être les biais ou les limites du modèle GPT-4, notamment en termes de qualité, de fiabilité et de généralisabilité des données et des résultats ?
Quels seraient les défis ou les obstacles à l’adoption et à l’intégration de Carby dans le système de santé, notamment en termes de formation, de supervision et d’évaluation des médecins utilisant l’outil ?
Quelles sont les alternatives ou les compléments possibles à Carby, notamment en termes d’autres technologies ou pratiques médicales ?
Voir aussi :
Comment utilisez-vous ChatGPT ? L'outil d'IA développé par OpenAI, désormais, il est basé sur GPT-4 et disponible pour les abonnés à ChatGPT+
Microsoft annonce GPT-4, le modèle de langage, de type transformeur génératif pré-entraîné et assure qu'elle n'utilise pas les données de ses clients pour former ses modèles, il sera multimodal