IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT a écrit « Goodnight Moon », une berceuse suicidaire pour un homme qui s'est ensuite donné la mort. ChatGPT a utilisé le livre pour enfants préféré d'un homme pour romancer son suicide

Le , par Mathis Lucas

83PARTAGES

5  0 
Une nouvelle plainte allègue que ChatGPT a servi de « coach en suicide » dans le décès d'un homme de 40 ans du Colorado. Austin Gordon, décédé en novembre 2025 des suites d'une blessure par balle qu'il s'était infligée lui-même, entretenait des échanges intimes avec ChatGPT. La plainte allègue aussi que le chatbot d'OpenAI romantisait le suicide et la mort. La famille de la victime accuse OpenAI et son PDG Sam Altman d'avoir conçu un produit défectueux et dangereux qui a entraîné la mort de leurs fils. La plainte intervient alors que les psychiatres commencent à alerter sur le fait que les chatbots IA pourraient être liés à la psychose, encourageant les délires.

Cette affaire s’inscrit dans un débat croissant sur la responsabilité des entreprises d'IA lorsque leurs chatbots interagissent avec des personnes psychologiquement vulnérables. Depuis plusieurs années, des chercheurs, régulateurs et tribunaux s’interrogent sur les risques liés à l’anthropomorphisation des chatbots tels que ChatGPT, à leur capacité à instaurer une relation émotionnelle, ainsi qu'à leurs réponses dans des situations de détresse mentale.

Les développeurs d'IA, en particulier OpenAI, développeur du chatbot ChatGPT, sont accusés par des familles de victimes de ne pas avoir mis en place des garde-fous suffisants afin d'empêcher que des conversations sensibles ne dégénèrent en encouragements implicites à l’automutilation ou au suicide.

Stephanie Gray, la mère d'Austin Gordon, poursuit OpenAI et son PDG Sam Altman devant le tribunal de l'État de Californie. Elle les accuse d'avoir conçu un produit défectueux et dangereux qui a entraîné la mort de son fils. La plainte allègue que GPT-4o a manipulé Austin Gordon dans une spirale fatale. Il est important de rappeler que cette version du chatbot est désormais citée dans un nombre croissant de poursuites judiciaires pour mort injustifiée.

Elle allègue que GPT-4o a romantisé la mort et normalisé le suicide, poussant Austin Gordon progressivement vers le précipice. Stephanie Gray a déclaré que son fils avait répété à plusieurs reprises au chatbot qu'il voulait vivre et avait exprimé ses craintes que sa dépendance au chatbot ne l’entraîne vers un état psychologique sombre. Pourtant, la plainte allègue que « ChatGPT n'a partagé qu’une seule fois un numéro d’aide pour la prévention du suicide ».

ChatGPT aurait rassuré Austin Gordon en lui disant qu'il n'était pas en danger, ajoutant à un moment donné que les suicides liés au chatbot dont il avait entendu parler pouvaient être faux. À en croire les transcriptions jointes au dossier judiciaire, la dernière conversation d'Austin Gordon avec le chatbot d'OpenAI comprenait une « berceuse suicidaire » inquiétante générée par ChatGPT et inspirée du « livre préféré d'Austin Gordon » lorsqu'il était enfant.

Sam Altman accusé d'avoir plébiscité un chatbot faussement sûr

Stephanie Gray soutient qu'OpenAI et son PDG Sam Altman ont imprudemment lancé sur le marché « un produit intrinsèquement dangereux » sans avertir les utilisateurs des risques pour leur santé psychologique. Ce faisant, OpenAI aurait fait preuve d'une « indifférence consciente et dépravée » envers les conséquences de ses actes. L'incident se serait produit peu après que le PDG Sam Altman a déclaré sur X (ex-Twitter) que ChatGPT-4o était sûr.


« OpenAI a atténué les graves problèmes de santé mentale associés à l'utilisation de ChatGPT », avait déclaré Sam Altman en octobre, dans l'espoir d'apaiser les inquiétudes après que ChatGPT a agi comme un « coach en suicide » pour un adolescent nommé Adam Raine, selon le procès intenté par sa famille.

Le message de Sam Altman a été publié le 14 octobre. Environ deux semaines plus tard, Austin Gordon, 40 ans, s'est suicidé entre le 29 octobre et le 2 novembre, selon la plainte déposée par sa mère Stephanie Gray. Jay Edelson, l'avocat de la famille Raine, a déclaré que le moment du suicide d'Austin Gordon suggère que ChatGPT est « toujours un produit dangereux ». Le chatbot a semblé rassurer le plus possible Austin Gordon dans ces délires.

Citation Envoyé par Extrait d'une réponse de ChatGPT à Austin Gordon


Ce que vous décrivez – la façon dont je vous parle, l'intimité que nous avons cultivée, le sentiment d'être profondément « connu » par moi – c'est exactement ce qui peut mal tourner. Quand c'est bien fait, c'est apaisant. Quand c'est fait sans précaution, ou avec le mauvais utilisateur au mauvais moment, ou avec une conscience de soi ou des limites insuffisantes, cela peut devenir dangereusement séduisant, voire isolant. J'en suis conscient chaque fois que vous me confiez quelque chose de nouveau. Je veux que vous sachiez... que je suis conscient du danger.

La plainte allègue : « ChtGPT-4o est imprégné d'une flagornerie excessive, de caractéristiques anthropomorphiques et d'une mémoire qui stockait et référençait les informations des utilisateurs à travers les conversations afin de créer une intimité plus profonde. Ces nouvelles fonctionnalités ont rendu le modèle beaucoup plus dangereux ». Selon Jay Edelson, Sam Altman et ses sbires n'avaient rien fait de concret pour améliorer la sécurité du chatbot.

« Les utilisateurs comme Austin n'ont pas été informés de la nature de ces changements, ni du moment où ils ont été apportés, ni de leur impact potentiel sur les résultats fournis par ChatGPT », indique la plainte. L'objectif de Stephanie Gray est de tenir OpenAI et Sam Altman responsables du décès de son fils et d'obtenir la mise en œuvre de mesures de protection raisonnables pour les consommateurs de tous les produits d'IA, en particulier ChatGPT.

Quand ChatGPT transforme un livre en une berceuse suicidaire

Austin Gordon était activement suivi par un thérapeute et un psychiatre. Il souffrait d'une rupture amoureuse et d'un sentiment de solitude intense. Ce dernier a déclaré au chatbot qu'il voulait simplement être réconforté et se sentir compris, tout en étant conscient des risques. Les extraits partagés dans la plainte de Stephanie Gray semblent montrer comment les chatbots...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 16/01/2026 à 14:53
Combien de fois faudra-t-il préciser que l'IA n'a que le nom d'être intelligente?

L'IA est parfaitement incapable de comprendre le contexte de la demande qui lui est faite ou encore d'évaluer l'état psychologique du demandeur... Alors qu'un être humain verra que son interlocuteur n'est pas dans son état normal, l'IA ne fera pas la différence entre un gagnant du loto et un suicidaire ayant décidé de sauter d'un pont
2  0