Une enquête au long cours révèle un paradoxe troublant : alors que la FDA autorise à marche forcée des dispositifs médicaux intégrant de l'intelligence artificielle (leur nombre a doublé depuis 2022 pour atteindre 1 357), les signalements d'accidents graves se multiplient dans les blocs opératoires. Artères sectionnées, crânes perforés, AVC post-opératoires : des patients paient le prix fort d'une course à l'innovation que personne ne semble vraiment contrôler. Et la situation ne devrait pas s'arranger — DOGE est passé par là.En 2021, la filiale Acclarent de Johnson & Johnson annonçait en grande pompe une « avancée majeure » : l'intégration d'un algorithme de machine learning dans son système de navigation chirurgicale TruDi, destiné aux opérations ORL des sinus. La promesse était séduisante — guider le chirurgien en temps réel, identifier les structures anatomiques avec une précision surhumaine, réduire le risque d'erreur à presque zéro. Cinq ans plus tard, le bilan est autrement moins glorieux.
Quand l'algorithme induit potentiellement le chirurgien en erreur
Depuis l'ajout de l'IA au dispositif TruDi, la FDA a reçu pas moins de 100 signalements non confirmés de dysfonctionnements et d'événements indésirables, contre seulement sept avant cette mise à jour (les sept signalements ont été fait en trois ans, tandis que les 100 signalements post-IA ont été fait entre 2021 et 2025). Parmi les cas documentés, les faits sont édifiants : du liquide céphalorachidien s'est écoulé par le nez d'un patient ; dans un autre cas, un chirurgien a perforé accidentellement la base du crâne ; dans deux autres cas, des patients ont subi des AVC après qu'une artère majeure a été accidentellement lésée.
Le cas de Kimberly Ralph est devenu emblématique. Opérée des sinus, elle ressort de l'hôpital pour finalement être réhospitalisée, victime d'un AVC. Selon les documents judiciaires, son avocat a soutenu que les propres archives du chirurgien montraient qu'il « n'avait aucune idée qu'il se trouvait à proximité de la carotide » — l'artère qui irrigue le cerveau, le visage et le cou. Une partie de son crâne a dû être retirée pour laisser le cerveau gonfler. Elle se bat encore en rééducation.
Acclarent a contesté ces allégations, et Integra LifeSciences — qui a racheté la société en 2024 pour plus de 550 millions de dollars — affirme qu'il n'existe « aucune preuve crédible d'un lien causal entre le système TruDi, la technologie IA et les blessures alléguées ». Une défense classique dans ces dossiers, qui soulève néanmoins une question fondamentale : si l'IA n'est pas responsable, pourquoi les signalements d'incidents ont-ils été multipliés par dix après son intégration ? Il est également à noter que l'un des chirurgiens mis en cause a perçu plus de 550 000 dollars en honoraires de consultant d'Acclarent entre 2014 et 2024, dont au moins 135 000 dollars directement liés au système TruDi.
Les rapports de la FDA sur les dispositifs médicaux peuvent être incomplets et ne visent pas à déterminer les causes des incidents médicaux. Il est donc difficile de déterminer le rôle que l'IA a pu jouer dans ces événements. Les deux victimes d'AVC ont chacune intenté un procès au Texas, alléguant que l'IA du système TruDi avait contribué à leurs blessures. « Le produit était sans doute plus sûr avant l'intégration des modifications apportées au logiciel pour y incorporer l'intelligence artificielle qu'après la mise en œuvre de ces modifications », affirme l'une des plaintes.
Une faille systémique : des appareils dopés à l'IA sans essais cliniques obligatoires
Le cas TruDi ne serait qu'un symptôme parmi d'autres. Les dispositifs médicaux utilisant l'IA ne sont pas tenus d'être testés dans des essais cliniques avant d'être approuvés par la FDA. À la place, de nombreux fabricants se contentent de pointer vers des dispositifs préalablement autorisés avant d'y greffer de l'IA. Autrement dit, il suffit d'avoir un appareil homologué, d'y coller une couche d'algorithme, et la FDA peut valider sans validation clinique spécifique à la nouvelle version.
La faille est architecturale. Une étude récente publiée dans la National Library of Medicine a établi que deux tiers des 12 000 patients identifiés comme insuffisants cardiaques par un stéthoscope augmenté par IA ne souffraient en réalité pas d'insuffisance cardiaque. Dans la même veine, des recherches publiées dans le JAMA Health Forum ont révélé que 43 % des dispositifs médicaux à IA ont eu des problèmes graves au point d'être retirés du marché moins d'un an après leur commercialisation
La FDA a reçu des signalements impliquant des dizaines d'autres dispositifs à IA, dont un moniteur cardiaque accusé d'avoir ignoré des battements anormaux et un appareil échographique ayant prétendument mal identifié des parties du corps d'un fœtus. Ce dernier appareil est le Sonio Detect de Samsung, dont la firme coréenne conteste tout problème de sécurité. Chez Medtronic, l'IA de monitoring cardiaque aurait manqué des arythmies dans 16 cas, bien que l'entreprise conteste...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.