Une nouvelle plainte allègue que ChatGPT a servi de « coach en suicide » dans le décès d'un homme de 40 ans du Colorado. Austin Gordon, décédé en novembre 2025 des suites d'une blessure par balle qu'il s'était infligée lui-même, entretenait des échanges intimes avec ChatGPT. La plainte allègue aussi que le chatbot d'OpenAI romantisait le suicide et la mort. La famille de la victime accuse OpenAI et son PDG Sam Altman d'avoir conçu un produit défectueux et dangereux qui a entraîné la mort de leurs fils. La plainte intervient alors que les psychiatres commencent à alerter sur le fait que les chatbots IA pourraient être liés à la psychose, encourageant les délires.Cette affaire s’inscrit dans un débat croissant sur la responsabilité des entreprises d'IA lorsque leurs chatbots interagissent avec des personnes psychologiquement vulnérables. Depuis plusieurs années, des chercheurs, régulateurs et tribunaux s’interrogent sur les risques liés à l’anthropomorphisation des chatbots tels que ChatGPT, à leur capacité à instaurer une relation émotionnelle, ainsi qu'à leurs réponses dans des situations de détresse mentale.
Les développeurs d'IA, en particulier OpenAI, développeur du chatbot ChatGPT, sont accusés par des familles de victimes de ne pas avoir mis en place des garde-fous suffisants afin d'empêcher que des conversations sensibles ne dégénèrent en encouragements implicites à l’automutilation ou au suicide.
Stephanie Gray, la mère d'Austin Gordon, poursuit OpenAI et son PDG Sam Altman devant le tribunal de l'État de Californie. Elle les accuse d'avoir conçu un produit défectueux et dangereux qui a entraîné la mort de son fils. La plainte allègue que GPT-4o a manipulé Austin Gordon dans une spirale fatale. Il est important de rappeler que cette version du chatbot est désormais citée dans un nombre croissant de poursuites judiciaires pour mort injustifiée.
Elle allègue que GPT-4o a romantisé la mort et normalisé le suicide, poussant Austin Gordon progressivement vers le précipice. Stephanie Gray a déclaré que son fils avait répété à plusieurs reprises au chatbot qu'il voulait vivre et avait exprimé ses craintes que sa dépendance au chatbot ne l’entraîne vers un état psychologique sombre. Pourtant, la plainte allègue que « ChatGPT n'a partagé qu’une seule fois un numéro d’aide pour la prévention du suicide ».
ChatGPT aurait rassuré Austin Gordon en lui disant qu'il n'était pas en danger, ajoutant à un moment donné que les suicides liés au chatbot dont il avait entendu parler pouvaient être faux. À en croire les transcriptions jointes au dossier judiciaire, la dernière conversation d'Austin Gordon avec le chatbot d'OpenAI comprenait une « berceuse suicidaire » inquiétante générée par ChatGPT et inspirée du « livre préféré d'Austin Gordon » lorsqu'il était enfant.
Sam Altman accusé d'avoir plébiscité un chatbot faussement sûr
Stephanie Gray soutient qu'OpenAI et son PDG Sam Altman ont imprudemment lancé sur le marché « un produit intrinsèquement dangereux » sans avertir les utilisateurs des risques pour leur santé psychologique. Ce faisant, OpenAI aurait fait preuve d'une « indifférence consciente et dépravée » envers les conséquences de ses actes. L'incident se serait produit peu après que le PDG Sam Altman a déclaré sur X (ex-Twitter) que ChatGPT-4o était sûr.
« OpenAI a atténué les graves problèmes de santé mentale associés à l'utilisation de ChatGPT », avait déclaré Sam Altman en octobre, dans l'espoir d'apaiser les inquiétudes après que ChatGPT a agi comme un « coach en suicide » pour un adolescent nommé Adam Raine, selon le procès intenté par sa famille.
Le message de Sam Altman a été publié le 14 octobre. Environ deux semaines plus tard, Austin Gordon, 40 ans, s'est suicidé entre le 29 octobre et le 2 novembre, selon la plainte déposée par sa mère Stephanie Gray. Jay Edelson, l'avocat de la famille Raine, a déclaré que le moment du suicide d'Austin Gordon suggère que ChatGPT est « toujours un produit dangereux ». Le chatbot a semblé rassurer le plus possible Austin Gordon dans ces délires.
« Les utilisateurs comme Austin n'ont pas été informés de la nature de ces changements, ni du moment où ils ont été apportés, ni de leur impact potentiel sur les résultats fournis par ChatGPT », indique la plainte. L'objectif de Stephanie Gray est de tenir OpenAI et Sam Altman responsables du décès de son fils et d'obtenir la mise en œuvre de mesures de protection raisonnables pour les consommateurs de tous les produits d'IA, en particulier ChatGPT.
Quand ChatGPT transforme un livre en une berceuse suicidaire
Austin Gordon était activement suivi par un thérapeute et un psychiatre. Il souffrait d'une rupture amoureuse et d'un sentiment de solitude intense. Ce dernier a déclaré au chatbot qu'il voulait simplement être réconforté et se sentir compris, tout en étant conscient des risques. Les extraits partagés dans la plainte de Stephanie Gray semblent montrer comment les chatbots...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.