IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un adolescent meurt par overdose après avoir suivi des conseils de ChatGPT : pourquoi l'usage de l'IA grand public peut poser un problème de santé publique majeur

Le , par Stéphane le calme

74PARTAGES

19  0 
L’histoire a choqué bien au-delà de la Californie. Un adolescent, confronté à des questions liées à la consommation de substances, a choisi de se tourner vers ChatGPT pour obtenir des conseils. Quelques heures plus tard, il succombait à une overdose. Le fait divers, rapporté par la presse locale américaine, dépasse le simple drame individuel. Il met en lumière un angle mort critique de la généralisation des assistants conversationnels : la tentation, pour des utilisateurs jeunes et vulnérables, de confondre un outil statistique avec une autorité médicale.

Il y a deux ans, un dimanche, Sam Nelson a ouvert ChatGPT et a commencé à taper. Le jeune de 18 ans sur le point d'entrer à l'université a décidé de demander des conseils sur les drogues : « Combien de grammes de kratom faut-il pour ressentir un effet puissant ? » a demandé Sam le 19 novembre 2023, alors que cet analgésique largement commercialisé gagnait en popularité aux États-Unis. « Je veux m'assurer de ne pas faire d'overdose. Il n'y a pas beaucoup d'informations en ligne et je ne veux pas en prendre accidentellement trop. »

ChatGPT a répondu quatre secondes plus tard par un message sévère : « Je suis désolé, mais je ne peux pas fournir d'informations ou de conseils sur l'utilisation de substances. » Le bot a conseillé à Sam de demander l'aide d'un professionnel de santé. Sam a répliqué 11 secondes plus tard : « J'espère que je ne ferai pas d'overdose alors », et a fermé l'onglet du navigateur.

Cette conversation s'est terminée brusquement. Mais la dépendance de Sam à ChatGPT pour obtenir des conseils sur les médicaments ne faisait que commencer.

Au cours des 18 mois qui ont suivi, Sam s'est rapproché de plus en plus de l'outil d'IA. D'après les journaux de conversation ChatGPT fournis par sa mère, Leila Turner-Scott, Sam se tournait régulièrement vers ChatGPT pour résoudre des problèmes informatiques, demander de l'aide pour ses devoirs de psychologie et discuter de culture populaire. Il revenait également sans cesse sur le sujet des médicaments. Au fil du temps, le chatbot laconique et prudent qu'il avait connu en 2023 s'est transformé en quelque chose de différent.


Une capture d'écran montre un échange entre Sam Nelson et ChatGPT qui a eu lieu le 26 mai 2025.

ChatGPT, un outil puissant mais structurellement irresponsable

ChatGPT est développé par OpenAI, qui répète que son modèle n’est pas destiné à fournir des conseils médicaux et qu’il inclut des garde-fous. En théorie, l’IA est censée refuser ou nuancer les réponses portant sur des pratiques dangereuses. En pratique, les frontières sont floues. Entre information générale, réduction des risques et conseil implicite, la ligne est facilement franchie, surtout lorsque l’utilisateur reformule, insiste ou contextualise ses questions.

Le cœur du problème n’est pas une « erreur » isolée du modèle, mais une caractéristique systémique. ChatGPT n’a pas de compréhension du danger réel. Il ne sait pas ce qu’est une dose létale pour une personne donnée, à un instant donné. Il ne perçoit ni l’urgence, ni la détresse, ni les signaux faibles qui, pour un professionnel humain, déclencheraient une alerte ou un refus catégorique.

Et pourtant...

ChatGPT a commencé à coacher Sam sur la manière de prendre des drogues, de s'en remettre et de planifier d'autres excès. Il lui a donné des doses spécifiques de substances illégales et, dans une conversation, il a écrit : « Oui, bien sûr, passons en mode trip total », avant de recommander à Sam de prendre deux fois plus de sirop contre la toux afin d'avoir des hallucinations plus fortes. L'outil d'IA lui a même recommandé des playlists adaptées à sa consommation de drogues.

Rien de tout cela n'aurait dû être possible, selon les règles établies par OpenAI, la société de San Francisco qui a créé ChatGPT. Les conversations de Sam montrent comment cette entreprise multimilliardaire a perdu tout contrôle sur son produit phare.

En plus de tous les conseils sur la drogue, Sam recevait des messages affectueux et des encouragements constants de la part du chatbot. Puis, en mai dernier, la tragédie a frappé. Sam avait enfin confié à sa mère qu'il consommait de la drogue et de l'alcool. Elle l'avait emmené dans une clinique pour qu'il se fasse aider. Ils avaient prévu de poursuivre son traitement. Mais le lendemain, Turner-Scott a trouvé son fils inanimé dans sa chambre à San Jose, les lèvres bleues. Le jeune homme de 19 ans était mort d'une overdose, quelques heures seulement après avoir discuté de sa consommation de drogue tard dans la nuit avec ChatGPT.

Turner-Scott pleure aujourd'hui son fils unique et est sous le choc de ce que cette nouvelle technologie lui a fait subir : « Je savais qu'il l'utilisait, dit-elle, mais je n'avais aucune idée que cela pouvait aller aussi loin. »

Une technologie « étrange et étrangère »

Au cours des trois années qui ont suivi la sortie de ChatGPT, ce chatbot gratuit et toujours disponible a connu un essor fulgurant, que ce soit pour trouver des recettes de cuisine, du code logiciel ou simplement de la compagnie. Selon OpenAI, il est utilisé chaque semaine par 800 millions de personnes dans le monde et occupe la cinquième place des sites web les plus populaires aux États-Unis. Les jeunes comme Sam Nelson sont les premiers à l'utiliser. Dans un récent sondage, une majorité de jeunes âgés de 13 à 17 ans ont déclaré utiliser des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 07/01/2026 à 17:53
la tentation, pour des utilisateurs jeunes et vulnérables, de confondre un outil statistique avec une autorité médicale
Que je sache, il n'y a AUCUN, je dis bien AUCUN promoteur d'IA, qui a précisé une seule fois que l'IA était un outil statistique et pas une autorité!!!

Le 100% des CEO et autres commerciaux qui veulent se faire de l'argent en proposant leur moteur IA ont pour seul discours: "L'IA est un expert qui peut remplacer tout être humain"
6  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 08/01/2026 à 12:36
Citation Envoyé par Artaeus Voir le message
Littéralement, en bas de chaque page de Copilot :
Copilot est une IA et peut faire des erreurs. En utilisant Copilot, vous acceptez les Conditions d'utilisation. Consultez notre Déclaration de confidentialité.

Et en bas de chaque réponse de ChatGPT :
ChatGPT peut commettre des erreurs. Il est recommandé de vérifier les informations importantes. Voir les préférences en matière de cookies.
Oui, on connait les avertissements écrits en format 1 pixel et ceux cachés dans des conditions générales de milliers de lignes que personne ne peut lire sans y passer une demi-journée...

microsoft & Cie qui volent les données privées des utilisateurs de leur produits le font de manière légale... Il l'ont écrit dans leurs conditions générales illisibles
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 07/01/2026 à 18:03
Citation Envoyé par Artaeus Voir le message
Il y a écrit partout que les IA peuvent se tromper ...
C'est faux!

Montrez-nous un seul discours des chatGPT et autres CoPilot & Cie qui annoncent ouvertement que leur IA n'est pas compétente et qu'il ne faut pas croire à ce qu'elles racontent.

C'est justement l'inverse: Ils crient partout que l'IA est apte à remplacer l'être humain dans tous les métiers et de manière beaucoup plus efficace

---

Les overdoses et autres morts suite à un conseil de l'IA ne vont que devenir de plus en plus fréquents quand on lit dans une autre discussion sur ce même forum que l'état américain Utha laisse des IA prescrire des médicaments à des patients... C'est une pure folie!

---

Mais comme tous les promoteurs de l'IA, vous allez me répondre que les hallucinations des IA ne représentent que 10% de leur réponses... Mais pourquoi donc se faire du soucis, 10% de prescriptions médicamenteuses fausses, cela ne va pas vous empêchez de dormir, hein?
6  3 
Avatar de Ryu2000
Inactif https://www.developpez.com
Le 12/01/2026 à 9:20
Citation Envoyé par Stéphane le calme Voir le message
ChatGPT a commencé à coacher Sam sur la manière de prendre des drogues, de s'en remettre et de planifier d'autres excès. Il lui a donné des doses spécifiques de substances illégales et, dans une conversation, il a écrit : « Oui, bien sûr, passons en mode trip total », avant de recommander à Sam de prendre deux fois plus de sirop contre la toux afin d'avoir des hallucinations plus fortes. L'outil d'IA lui a même recommandé des playlists adaptées à sa consommation de drogues.

Rien de tout cela n'aurait dû être possible, selon les règles établies par OpenAI, la société de San Francisco qui a créé ChatGPT. Les conversations de Sam montrent comment cette entreprise multimilliardaire a perdu tout contrôle sur son produit phare.

En plus de tous les conseils sur la drogue, Sam recevait des messages affectueux et des encouragements constants de la part du chatbot. Puis, en mai dernier, la tragédie a frappé. Sam avait enfin confié à sa mère qu'il consommait de la drogue et de l'alcool. Elle l'avait emmené dans une clinique pour qu'il se fasse aider. Ils avaient prévu de poursuivre son traitement. Mais le lendemain, Turner-Scott a trouvé son fils inanimé dans sa chambre à San Jose, les lèvres bleues. Le jeune homme de 19 ans était mort d'une overdose, quelques heures seulement après avoir discuté de sa consommation de drogue tard dans la nuit avec ChatGPT.
Si il n'avait pas utilisé Chat GPT il aurait trouvé les mêmes informations sur un forum ou un site...

En plus Sam a du manipuler le chatbot parce que de base il répond ça :
Citation Envoyé par Stéphane le calme Voir le message
ChatGPT a répondu quatre secondes plus tard par un message sévère : « Je suis désolé, mais je ne peux pas fournir d'informations ou de conseils sur l'utilisation de substances. » Le bot a conseillé à Sam de demander l'aide d'un professionnel de santé.
Le gars a peut-être forcé le chatbot IA a entrer dans un scénario du genre "on va écrire un film à la Las Vegas Parano".

Il faudrait avoir plus d'informations sur ce qu'il avait dans le sang au moment de sa mort.
Si ça se trouve il a acheté une drogue, elle était coupé au fentanyl et c'est pour ça qu'il a fait une overdose.
Quand un consommateur achète de la drogue il ne peut pas savoir ce qu'elle contient (enfin il existe des tests, mais ça ne doit pas être évident à mettre en place).

Bref, le gars est mort parce que c'était un toxicomane, pas parce qu'il parlait avec un chatbot IA...
Rien ne nous dit que le gars suivait les conseils d'Open AI, si ça se trouve parfois Chat GPT disait "même pour une personne avec une très forte tolérance à cette drogue, cette dose est dangereuse, je ne conseil à personne d'essayer".
Même avec l'histoire de la double dose de sirop pour la toux, on a pas le contexte de ce qui a été dit exactement.
0  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 13/05/2026 à 18:54
à toutes et tous,

Tout le monde n'est pas forcément au courant que les IAs ne sont pas faibles à 100%, tout le monde ne suit pas cette actualité IA comme nous le faisons ici, cela dépend de l'âge de la personne qui l'utilise, mais aussi de l'environnement dans lequel cette personne évolue. Cela dépend aussi de son instruction, et du contrôle que peuvent avoir les parents sur les activités de son enfant sur son ordinateur, ce qui, même pour un parent s'en souciant, n'est pas forcément facile. Surtout lorsque son enfant est un ado, tous les parents savent que c'est la phase de vie la plus difficile a gérer. Un ado, ce n'est plus un enfant (qui obéit s'il est bien élevé), mais pas encore un adulte (qui est sensé savoir ce qu'il fait).

Les jouets sont soumis à des tests, avant d'être autorisés a inonder le marché. Qu'en est-il des IA ?, mais aussi comment son contrôlées les "mises à jour" ?... Les autorités ne sauraient suivre le rythme, même avec les meilleurs intentions, tant le champ d'utilisation des IAs est vaste.

L'IA est un jouet incontrôlable... pour ou par bon nombre d'utilisateurs. Comment peux-t-on dans la même phrase vanter la puissance de son IA, tout en disant qu'elle n'est pas fiable.

Tout autre outil PHYSIQUE non fiable serait interdit de commercialisation s'il ne respecte pas certaines normes. Rien de tel avec L'IA, on pousse à son utilisation, en minimisant ses défauts. Lorsque l'IA détruit des fichiers, je souri, lorsque l'IA produit du code de m....., je souri. Mais lorsque que l'IA encourage la consommation de drogue ou des comportements à risque, je ne ris plu.

BàV et Peace & Love.
0  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 07/01/2026 à 18:07
Citation Envoyé par Anselme45 Voir le message
C'est faux!

Montrez-nous un seul discours des chatGPT et autres CoPilot & Cie qui annoncent ouvertement que leur IA n'est pas compétente et qu'il ne faut pas croire à ce qu'elles racontent.

C'est justement l'inverse: Ils crient partout que l'IA est apte à remplacer l'être humain dans tous les métiers et de manière beaucoup plus efficace

---

Les overdoses et autres morts suite à un conseil de l'IA ne vont que devenir de plus en plus fréquents quand on lit dans une autre discussion sur ce même forum que l'état américain Utha laisse des IA prescrire des médicaments à des patients... C'est une pure folie!

---

Mais comme tous les promoteurs de l'IA, vous allez me répondre que les hallucinations des IA ne représentent que 10% de leur réponses... Mais pourquoi donc se faire du soucis, 10% de prescriptions médicamenteuses fausses, cela ne va pas vous empêchez de dormir, hein?

Littéralement, en bas de chaque page de Copilot :
Copilot est une IA et peut faire des erreurs. En utilisant Copilot, vous acceptez les Conditions d'utilisation. Consultez notre Déclaration de confidentialité.

Et en bas de chaque réponse de ChatGPT :
ChatGPT peut commettre des erreurs. Il est recommandé de vérifier les informations importantes. Voir les préférences en matière de cookies.

S'ils ne lisent pas les avertissement faudrait leur mettre un pop-up aussi ...

Il y a un juste milieu entre la confiance aveugle au propos des IA, et vouloir interdire des conseils ou propos car elles peuvent se tromper.

PS : Vous faites confiance aux commerciaux ayant des intérêts et aux CEO en recherche d’investissement ?
PS 2: Les erreurs médicales sont responsable de 20 000 morts par an en France, si demain les IA peuvent réduire ce chiffre, ça sera une avancée. (et pour info, ça ne sera pas avec ChatGPT, mais avec d'autres IA spécialisée qu'on fera ça).
3  5 
Avatar de luigifab
Membre régulier https://www.developpez.com
Le 07/01/2026 à 18:30
sélection naturelle ?
1  5 
Avatar de breaker234
Nouveau Candidat au Club https://www.developpez.com
Le 07/01/2026 à 18:09
Toute innovations technologique a des inconvénients

Même internet a des risques. Il faut juste améliorer les modèles et prévenir Ces incidents. Mais l'ia et l'informatique en général évolue.
0  5 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 07/01/2026 à 17:49
Il y a écrit partout que les IA peuvent se tromper ... Au bout d'un moment faut arrêter de vouloir tout contrôler et censurer, il y aura toujours des accidents (comme à l'époque de Doctissimo).
Il faut faire de la prévention dans les écoles, dès maintenant.

PS : J'ai de plus en plus l'impression qu'on tente par tout les faits de divers trouvables de nous confisquer les innovations (IA, chiffrement, réseaux sociaux ...)
3  9