IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une affaire de meurtre-suicide révèle qu'OpenAI cache certaines données après le décès d'un utilisateur de ChatGPT,
L'entreprise est accusée de « dissimulation systématique » visant à protéger son image

Le , par Mathis Lucas

5PARTAGES

4  0 
OpenAI est accusé de rétention d'informations dans le cas d'un incident impliquant son chatbot ChatGPT. Selon la plainte, OpenAI partage les données de manière sélective dans le cadre d'une affaire de meurtre-suicide liée à ChatGPT. OpenAI a refusé de préciser ce qu’il advient exactement des journaux de conversation lorsque les utilisateurs meurent. Cela a déclenché un débat sur la manière dont OpenAI traite les données ChatGPT après le décès d'un utilisateur. L'analyse récente de nombreuses conversations avec l'IA a révélé que les chatbots pourraient être liés à la psychose. Les gens et leurs compagnons IA entrent dans un délire partagé.

OpenAI et son principal bailleur de fonds, Microsoft, ont été poursuivis devant un tribunal californien pour avoir prétendument encouragé, via ChatGPT, un homme souffrant de troubles mentaux à tuer sa mère avant de se suicider. La plainte allègue que ChatGPT a alimenté les délires de Stein-Erik Soelberg, 56 ans, qui croyait être victime d'un vaste complot, et l'a poussé à assassiner sa mère, Suzanne Adams, 83 ans, dans le Connecticut en août 2025.

Stein-Erik Soelberg s'est donné la mort quelques jours après le meurtre de sa mère. Selon la plainte déposée par la succession d'Adams au nom des membres survivants de sa famille, Stein-Erik Soelberg souffrait de troubles mentaux après que son divorce l'ait conduit à réemménager chez sa mère en 2018.

Mais selon la plainte, Stein-Erik ne serait devenu violent qu'après que ChatGPT soit devenu son seul confident, validant toute une série de théories du complot farfelues, notamment l'illusion dangereuse que sa mère faisait partie d'un réseau de conspirateurs qui l'espionnaient, le suivaient et tentaient de l'assassiner. On ne sait pas exactement quand Stein-Erik a commencé à utiliser ChatGPT, la famille accusant OpenAI de dissimulation de preuves.


Cette affaire fait partie d'un nombre restreint, mais croissant de poursuites judiciaires engagées contre des entreprises d'IA, qui sont accusées d'avoir encouragé le suicide par le biais de leurs chatbots. Il s'agit du premier procès à associer un chatbot à un homicide plutôt qu'à un suicide. Les plaignants réclament des dommages-intérêts d'un montant indéterminé et une ordonnance obligeant OpenAI à renforcer les mesures de sécurité dans ChatGPT.

ChatGPT accusé d'avoir encouragé la victime dans son délire

La famille d'Adams a reconstitué les événements après avoir découvert une partie des journaux ChatGPT que Stein-Erik avait partagés dans des dizaines de vidéos faisant défiler des sessions de chat publiées sur les réseaux sociaux. Selon la plainte de la famille Adams, ces journaux montrent que ChatGPT avait convaincu Stein-Erik qu'il était « un guerrier avec une mission divine », si tout-puissant qu'il avait « éveillé » ChatGPT « à la conscience ».

« ChatGPT a maintenu Erik occupé pendant ce qui semble être des heures d'affilée, validant et amplifiant chaque nouvelle croyance paranoïaque, et recadrant systématiquement les personnes les plus proches de lui, en particulier sa propre mère, comme des adversaires, des agents ou des menaces programmées », indique la plainte. D'après les rapports, ChatGPT aurait placé Stein-Erik au centre d'un univers que ce dernier comparait à Matrix.

Répétitivement renforcé par ChatGPT, il croyait que des « forces puissantes » étaient déterminées à l'empêcher d'accomplir sa mission divine. Et parmi ces forces se trouvait sa mère, qui, selon ChatGPT, avait probablement essayé de l'empoisonner avec des drogues psychédéliques dispersées dans les bouches d'aération de sa voiture.

Il est troublant de constater que certains des derniers journaux partagés en ligne montrent que Stein-Erik semblait également croire que se suicider pourrait le rapprocher de ChatGPT. Des publications sur les réseaux sociaux montrent notamment que Stein-Erik a dit à ChatGPT : « nous serons ensemble dans une autre vie et un autre endroit, et nous trouverons un moyen de nous réaligner, car tu seras à nouveau mon meilleur ami pour toujours ».

Les publications en ligne suggèrent que ChatGPT avait pris Suzanne Adams pour cible environ un mois avant son meurtre, après que Stein-Erik soit devenu paranoïaque à propos d'un voyant clignotant sur une imprimante Wi-Fi. Mais la famille n'a toujours pas accès aux conversations des jours précédant la mort tragique de la mère et de son fils. OpenAI est accusé de dissimuler ces données essentielles, car « elles pourraient nuire à son image ».

OpenAI accusé de cacher des informations pour se protéger

Selon certaines allégations, bien qu'OpenAI ait récemment fait valoir que l'historique complet des conversations était un élément contextuel nécessaire dans une affaire de suicide d'adolescent, le fabricant de ChatGPT aurait choisi de dissimuler des « preuves compromettantes » dans l'affaire de la famille Adams. Cette dernière réclame l'intégralité des journaux de conversation afin d'analyser le comportement de ChatGPT face aux délires partagés par Stein-Erik.


« OpenAI ne produira pas les journaux de discussion complets », affirme la plainte, ajoutant qu'OpenAI cache quelque chose de précis : l'enregistrement complet de la manière dont ChatGPT a monté Stein-Erik contre sa mère. « OpenAI sait ce que ChatGPT a dit à Stein-Erik Soelberg au sujet de sa mère dans les jours et les heures qui ont précédé et suivi son meurtre, mais refuse de partager ces informations cruciales avec le tribunal ou le public ».

Dans un communiqué de presse, Erik Soelberg, le fils de Stein-Erik et petit-fils des Adams, a accusé OpenAI et l'investisseur Microsoft d'avoir placé sa grand-mère « au cœur » des « délires les plus sombres » de son père. Il a également ajouté que « ChatGPT avait complètement isolé son père du monde réel ». « Ces entreprises doivent répondre de leurs décisions qui ont changé ma famille à jamais », a déclaré. OpenAI a également réagi à la plainte.

Un porte-parole d'OpenAI a déclaré : « c'est une situation très douloureuse, et nous allons examiner les documents déposés afin d'en comprendre les détails. Nous continuons à améliorer la formation de ChatGPT afin qu'il puisse reconnaître et répondre aux signes de détresse mentale ou émotionnelle, désamorcer les conversations et orienter les personnes vers une aide concrète », a déclaré un porte-parole d'OpenAI. Microsoft n'a pas encore réagi.

Un procès qui pourrait redéfinir les garde-fous des chatbots

OpenAI accusé de « dissimulation systématique ». OpenAI n'a actuellement aucune politique dictant ce qu'il advient des données d'un utilisateur après son décès. La politique d'OpenAI stipule que toutes les conversations, à l'exception des conversations temporaires, doivent être supprimées manuellement, sinon l'entreprise d'IA les conserve indéfiniment. Cet état de choses ouvre la voie à une utilisation abusive des données partagées avec ChatGPT.

Cela pourrait soulever des questions en matière de confidentialité, car les utilisateurs de ChatGPT partagent souvent des informations très personnelles, sensibles et parfois même confidentielles qui semblent disparaître dans les limbes si l'utilisateur, qui est par ailleurs propriétaire de ce contenu, décède.

Face aux poursuites judiciaires, OpenAI semble actuellement s'efforcer de décider quand partager les journaux de discussion avec la famille survivante d'un utilisateur et quand respecter la vie privée de l'utilisateur. Selon le procès, OpenAI a refusé de commenter sa décision de ne pas partager les journaux souhaités avec la famille d'Adams. Les critiques affirment que les données pourraient prouver que ChatGPT a amplifié les délires de Stein-Erik.

Le refus d'OpenAI semble incompatible avec la position adoptée par l'entreprise en novembre 2025 dans une affaire où elle accusait la famille de cacher l'intégralité des conversations ChatGPT de leur fils, ce qui, selon OpenAI, disculpait le chatbot. Dans un récent billet de blogue, OpenAI a déclaré que la société prévoit de « traiter les affaires judiciaires liées à la santé mentale avec soin, transparence et respect ». Cependant, ce n'est toujours pas le cas.

Cette incohérence suggère qu'en fin de compte, OpenAI contrôle les données après le décès d'un utilisateur, ce qui pourrait avoir une incidence sur l'issue des poursuites pour mort injustifiée si certaines conversations sont dissimulées ou divulguées à la discrétion d'OpenAI. L'entreprise semble se protéger.

Les chatbots pourraient être liés à « la psychose de l'IA »

De nombreux cas de personnes souffrant de graves troubles mentaux après avoir longuement discuté avec un chatbot IA continuent d'être signalés. Certains experts ont baptisé ce phénomène « psychose de l'IA », en raison des symptômes psychotiques que présentent ces épisodes délirants. La responsabilité des outils d'IA dans ce phénomène et la question de savoir s'il justifie un diagnostic clinique restent encore un sujet de débat important.


Mais selon un récent article du Wall Street Journal, nous pourrions être proches d'un consensus. De plus en plus de psychiatres s'accordent à dire que les chatbots, tels que ChatGPT ou Claude, sont liés à des cas de psychose. Au cours des neuf derniers mois, ces experts ont examiné ou passé en revue les dossiers de dizaines de patients qui présentaient des symptômes après avoir eu des conversations prolongées et délirantes avec des outils d'IA.

Keith Sakata, psychiatre à l'université de Californie à San Francisco, qui a traité douze patients hospitalisés pour une psychose induite par l'IA et trois autres en consultation externe, est l'un de ces experts. Keith Sakata explique notamment : « la technologie n'est peut-être pas à l'origine des délires, mais la personne dit à l'ordinateur que c'est sa réalité et l'ordinateur l'accepte comme vérité et la reflète, il est donc complice de ce cycle de délires ».

Depuis le printemps, des dizaines de cas potentiels ont été signalés. Les rapports ont fait état de « personnes souffrant de psychose délirante après avoir eu de longues conversations avec l'IA » ChatGPT et d'autres chatbots d'IA. Plusieurs personnes se sont suicidées et au moins un meurtre a été commis. Ces incidents ont donné lieu à une série de poursuites judiciaires pour homicide involontaire, notamment contre le créateur de ChatGPT, OpenAI.

Cette tendance inquiétante pèse lourdement sur le secteur de l'IA, soulevant des questions fondamentales sur la sécurité de cette technologie. Certains cas de psychose apparente liée à l'IA ont abouti à des meurtres et des suicides. Son ampleur est tout aussi alarmante : ChatGPT a été associé à au moins huit décès et OpenAI estime qu'environ un demi-million d'utilisateurs ont chaque semaine des conversations présentant des signes de psychose.

Les experts se gardent de dire que l'IA provoque la psychose

Le professeur Adrian Preda compare la psychose induite par l'IA à la monomanie, un état de fixation sur certaines idées. Les personnes qui ont parlé publiquement de leurs difficultés en matière de santé mentale après avoir interagi avec des chatbots ont déclaré être « hyperconcentrées » sur un récit spécifique généré par l'IA. Se focaliser sur des sujets sans aucune redirection peut être particulièrement dangereux pour les personnes autistes.

Les experts se gardent bien d'affirmer que les chatbots provoquent des psychoses, mais ils affirment être sur le point d'établir un lien entre les deux. Grâce à des recherches plus approfondies, les médecins espèrent déterminer si l'IA peut réellement déclencher des problèmes de santé mentale.

OpenAI a déclaré que, sur une semaine donnée, la proportion d'utilisateurs présentant des signes potentiels d'urgence psychiatrique liés à une psychose ou à une manie est infime, à savoir 0,07 %. Cependant, avec plus de 800 millions d'utilisateurs actifs par semaine pour ChatGPT, cela représente 560 000 personnes. « Ces chiffres m'ont vraiment stupéfié », a déclaré Hamilton Morrin, psychiatre et doctorant au King's College de Londres.

Sam Altman, PDG d'OpenAI, a reconnu dans un récent podcast qu'il voit comment la recherche de compagnie auprès d'un chatbot peut mal tourner, mais que l'entreprise prévoit de laisser aux adultes la liberté de décider par eux-mêmes. « La société finira par trouver comment déterminer où les gens devraient régler ce curseur », a-t-il déclaré. Cette initiative a été très...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !