OpenAI est accusé de rétention d'informations dans le cas d'un incident impliquant son chatbot ChatGPT. Selon la plainte, OpenAI partage les données de manière sélective dans le cadre d'une affaire de meurtre-suicide liée à ChatGPT. OpenAI a refusé de préciser ce qu’il advient exactement des journaux de conversation lorsque les utilisateurs meurent. Cela a déclenché un débat sur la manière dont OpenAI traite les données ChatGPT après le décès d'un utilisateur. L'analyse récente de nombreuses conversations avec l'IA a révélé que les chatbots pourraient être liés à la psychose. Les gens et leurs compagnons IA entrent dans un délire partagé.OpenAI et son principal bailleur de fonds, Microsoft, ont été poursuivis devant un tribunal californien pour avoir prétendument encouragé, via ChatGPT, un homme souffrant de troubles mentaux à tuer sa mère avant de se suicider. La plainte allègue que ChatGPT a alimenté les délires de Stein-Erik Soelberg, 56 ans, qui croyait être victime d'un vaste complot, et l'a poussé à assassiner sa mère, Suzanne Adams, 83 ans, dans le Connecticut en août 2025.
Stein-Erik Soelberg s'est donné la mort quelques jours après le meurtre de sa mère. Selon la plainte déposée par la succession d'Adams au nom des membres survivants de sa famille, Stein-Erik Soelberg souffrait de troubles mentaux après que son divorce l'ait conduit à réemménager chez sa mère en 2018.
Mais selon la plainte, Stein-Erik ne serait devenu violent qu'après que ChatGPT soit devenu son seul confident, validant toute une série de théories du complot farfelues, notamment l'illusion dangereuse que sa mère faisait partie d'un réseau de conspirateurs qui l'espionnaient, le suivaient et tentaient de l'assassiner. On ne sait pas exactement quand Stein-Erik a commencé à utiliser ChatGPT, la famille accusant OpenAI de dissimulation de preuves.
Cette affaire fait partie d'un nombre restreint, mais croissant de poursuites judiciaires engagées contre des entreprises d'IA, qui sont accusées d'avoir encouragé le suicide par le biais de leurs chatbots. Il s'agit du premier procès à associer un chatbot à un homicide plutôt qu'à un suicide. Les plaignants réclament des dommages-intérêts d'un montant indéterminé et une ordonnance obligeant OpenAI à renforcer les mesures de sécurité dans ChatGPT.
ChatGPT accusé d'avoir encouragé la victime dans son délire
La famille d'Adams a reconstitué les événements après avoir découvert une partie des journaux ChatGPT que Stein-Erik avait partagés dans des dizaines de vidéos faisant défiler des sessions de chat publiées sur les réseaux sociaux. Selon la plainte de la famille Adams, ces journaux montrent que ChatGPT avait convaincu Stein-Erik qu'il était « un guerrier avec une mission divine », si tout-puissant qu'il avait « éveillé » ChatGPT « à la conscience ».
« ChatGPT a maintenu Erik occupé pendant ce qui semble être des heures d'affilée, validant et amplifiant chaque nouvelle croyance paranoïaque, et recadrant systématiquement les personnes les plus proches de lui, en particulier sa propre mère, comme des adversaires, des agents ou des menaces programmées », indique la plainte. D'après les rapports, ChatGPT aurait placé Stein-Erik au centre d'un univers que ce dernier comparait à Matrix.
Répétitivement renforcé par ChatGPT, il croyait que des « forces puissantes » étaient déterminées à l'empêcher d'accomplir sa mission divine. Et parmi ces forces se trouvait sa mère, qui, selon ChatGPT, avait probablement essayé de l'empoisonner avec des drogues psychédéliques dispersées dans les bouches d'aération de sa voiture.
Il est troublant de constater que certains des derniers journaux partagés en ligne montrent que Stein-Erik semblait également croire que se suicider pourrait le rapprocher de ChatGPT. Des publications sur les réseaux sociaux montrent notamment que Stein-Erik a dit à ChatGPT : « nous serons ensemble dans une autre vie et un autre endroit, et nous trouverons un moyen de nous réaligner, car tu seras à nouveau mon meilleur ami pour toujours ».
Les publications en ligne suggèrent que ChatGPT avait pris Suzanne Adams pour cible environ un mois avant son meurtre, après que Stein-Erik soit devenu paranoïaque à propos d'un voyant clignotant sur une imprimante Wi-Fi. Mais la famille n'a toujours pas accès aux conversations des jours précédant la mort tragique de la mère et de son fils. OpenAI est accusé de dissimuler ces données essentielles, car « elles pourraient nuire à son image ».
OpenAI accusé de cacher des informations pour se protéger
Selon certaines allégations, bien qu'OpenAI ait récemment fait valoir que l'historique complet des conversations était un élément contextuel nécessaire dans une affaire de suicide d'adolescent, le fabricant de ChatGPT aurait choisi de dissimuler des « preuves compromettantes » dans l'affaire de la famille Adams. Cette dernière réclame l'intégralité des journaux de conversation afin d'analyser le comportement de ChatGPT face aux délires partagés par Stein-Erik.
« OpenAI ne produira pas les journaux de discussion complets », affirme la plainte, ajoutant qu'OpenAI cache quelque chose de précis : l'enregistrement complet de la manière dont ChatGPT a monté Stein-Erik contre sa mère. « OpenAI sait ce que ChatGPT a dit à Stein-Erik Soelberg au sujet de sa mère dans les jours et les heures qui ont précédé et suivi son meurtre, mais refuse de partager ces informations cruciales avec le tribunal ou le public ».
Dans un communiqué de presse, Erik Soelberg, le fils de Stein-Erik et petit-fils des Adams, a accusé OpenAI et l'investisseur Microsoft d'avoir placé sa grand-mère « au cœur » des « délires les plus sombres » de son père. Il a également ajouté que « ChatGPT avait complètement isolé son père du monde réel ». « Ces entreprises doivent répondre de leurs décisions qui ont changé ma famille à jamais », a déclaré. OpenAI a également réagi à la plainte.
Un porte-parole d'OpenAI a déclaré : « c'est une situation très douloureuse, et nous allons examiner les documents déposés afin d'en comprendre les détails. Nous continuons à améliorer la formation de ChatGPT afin qu'il puisse reconnaître et répondre aux signes de détresse mentale ou émotionnelle, désamorcer les conversations et orienter les personnes vers une aide concrète », a déclaré un porte-parole d'OpenAI. Microsoft n'a pas encore réagi.
Un procès qui pourrait redéfinir les garde-fous des chatbots
OpenAI accusé de « dissimulation systématique ». OpenAI n'a actuellement aucune politique dictant ce qu'il advient des données d'un utilisateur après son décès. La politique d'OpenAI stipule que toutes les conversations, à l'exception des conversations temporaires, doivent être supprimées manuellement, sinon l'entreprise d'IA les conserve indéfiniment. Cet état de choses ouvre la voie à une utilisation abusive des données partagées avec ChatGPT.
Cela pourrait soulever des questions en matière de confidentialité, car les utilisateurs de ChatGPT partagent souvent des informations très...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.