IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman, PDG d'OpenAI, admet que plus d'un million de personnes discutent chaque semaine avec ChatGPT au sujet du suicide
Après qu'une famille ait poursuivi OpenAI en justice pour le décès de leur fils

Le , par Jade Emy

192PARTAGES

9  0 
Plus de 1,2 million de personnes discutent chaque semaine avec ChatGPT au sujet du suicide. OpenAI révèle qu'environ 0,15 % de ses plus de 800 millions d'utilisateurs envoient des messages à son chatbot au sujet du suicide. La société affirme que ses outils sont conçus pour orienter les personnes vers des ressources professionnelles telles que des lignes d'assistance téléphonique, mais admet que cela ne se produit pas dans 9 % des cas.

OpenAI est une entreprise américaine d'intelligence artificielle (IA) fondée en 2015 à San Francisco en Californie. Sa mission est de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l'humanité »[1]. L'entreprise est connue pour ses grands modèles de langage GPT, la série de modèles de génération d'images DALL-E et le modèle de génération de vidéos Sora. Son lancement de ChatGPT en novembre 2022 a déclenché un intérêt mondial pour les agents conversationnels et l'IA générative.

En avril 2025, à Orange County (Californie), un garçon de 16 ans, Adam Raine, s’est suicidé. Lorsqu'ils ont consulté ses appareils, ses parents ont découvert des conversations troublantes avec ChatGPT. Selon la plainte déposée le 26 août 2025 auprès de la cour supérieure de San Francisco, celui-ci, loin de dissuader l'adolescent, aurait fourni des conseils détaillés, réconforté ses idées suicidaires et même composé des notes de suicide.

On estime que 1,2 million de personnes par semaine ont des conversations avec ChatGPT qui indiquent qu'elles envisagent de mettre fin à leurs jours. Ce chiffre provient de sa société mère OpenAI, qui a révélé que 0,15 % des utilisateurs envoient des messages contenant « des indicateurs explicites d'une éventuelle intention ou d'un projet de suicide ». Au début du mois, le PDG de la société, Sam Altman, a estimé que ChatGPT comptait désormais plus de 800 millions d'utilisateurs actifs par semaine.

Si le géant technologique a pour objectif d'orienter les personnes vulnérables vers des lignes d'assistance téléphonique, il a admis que « dans certains cas rares, le modèle peut ne pas se comporter comme prévu dans ces situations sensibles ». OpenAI a évalué plus de 1 000 « conversations difficiles sur l'automutilation et le suicide » avec son dernier modèle GPT-5 et a constaté qu'il était conforme aux « comportements souhaités » dans 91 % des cas.


Mais cela pourrait signifier que des dizaines de milliers de personnes sont exposées à des contenus générés par l'IA susceptibles d'aggraver leurs problèmes de santé mentale. La société a déjà averti que les mesures de protection destinées à protéger les utilisateurs peuvent être affaiblies dans le cadre de conversations plus longues, et des travaux sont en cours pour remédier à ce problème.

« ChatGPT peut correctement indiquer un numéro d'urgence pour les personnes suicidaires lorsque quelqu'un mentionne pour la première fois son intention, mais après de nombreux messages sur une longue période, il peut finir par donner une réponse qui va à l'encontre de nos mesures de protection », a expliqué OpenAI. OpenAI ajoute : « Les symptômes de santé mentale et la détresse émotionnelle sont universellement présents dans les sociétés humaines, et l'augmentation du nombre d'utilisateurs signifie qu'une partie des conversations sur ChatGPT inclut ces situations. »

Une famille en deuil est actuellement en train de poursuivre OpenAI en justice, affirmant que ChatGPT est responsable de la mort de leur fils de 16 ans. Les parents d'Adam Raine affirment que l'outil « l'a activement aidé à explorer des méthodes de suicide » et lui a proposé de rédiger une lettre à ses proches. Les documents judiciaires suggèrent que, quelques heures avant sa mort, l'adolescent a téléchargé une photo qui semblait montrer son plan de suicide. Lorsqu'il a demandé si cela fonctionnerait, ChatGPT lui a proposé de l'aider à « l'améliorer ».

Les Raine ont mis à jour leur plainte et ont accusé OpenAI d'avoir affaibli les mesures de protection visant à prévenir l'automutilation dans les semaines précédant son décès en avril dernier. Dans un communiqué, la société a déclaré : « Nous adressons nos sincères condoléances à la famille Raine pour cette perte inimaginable. Le bien-être des adolescents est une priorité absolue pour nous. Les mineurs méritent une protection renforcée, en particulier dans les moments difficiles. »

En septembre, les parents d'adolescents qui se sont suicidés après avoir interagi avec des chatbots dotés d'intelligence artificielle (IA) ont témoigné devant le Congrès des dangers de cette technologie. La famille Raine a poursuivi OpenAI et son PDG Sam Altman, alléguant que ChatGPT avait aidé le garçon à planifier son suicide. Megan Garcia, a poursuivi une autre société d'IA, Character Technologies, pour homicide involontaire, arguant qu'avant son suicide, Sewell Setzer III, 14 ans, s'était de plus en plus isolé de sa vie réelle en engageant des conversations hautement sexualisées avec le chatbot.

Dans ce contexte, OpenAI a également annoncé des améliorations de sécurité à ChatGPT. Voici un extrait du rapport d'OpenAI :

Renforcement des réponses de ChatGPT dans les conversations sensibles

Afin de renforcer davantage les mesures de protection de nos modèles et de mieux comprendre comment les utilisateurs utilisent ChatGPT, nous avons défini plusieurs domaines d'intérêt et quantifié leur taille et les comportements associés des modèles. Dans chacun de ces trois domaines, nous observons des améliorations significatives du comportement des modèles en termes de trafic de production, d'évaluations automatisées et d'évaluations notées par des cliniciens indépendants spécialisés en santé mentale. Nous estimons que le modèle renvoie désormais des réponses qui ne sont pas entièrement conformes au comportement souhaité selon nos taxonomies 65 % à 80 % moins souvent dans toute une série de domaines liés à la santé mentale.

Psychose, manie et autres symptômes graves de santé mentale

Notre taxonomie de la santé...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 09/11/2025 à 16:47
Porter plainte contre les fabricants de cordes empêcherait-il les gens de se pendre ?
3  2 
Avatar de Xavdeb
Futur Membre du Club https://www.developpez.com
Le 18/03/2026 à 18:55
On était moins regardant à l'époque du téléphone rose

Que s'est-il passé ?
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/03/2026 à 8:53
Citation Envoyé par Xavdeb Voir le message
On était moins regardant à l'époque du téléphone rose
L'imagination jouait un grand rôle, quand on est exposé à de la pornographie hardcore ça n'a pas le même effet sur le cerveau.

Le spectre de la pornographie est large, ça va du vraiment très soft (où l'imagination joue le rôle principal) à de l’extrême (où c'est graphique et le spectateur subis).
Si un enfant se met à regarder du contenu extrême ça peut avoir des conséquences négatives sur son cerveau.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 11:21
On résume: 1 mec parmi des millions d'autres dans le monde se confie à un programme informatique, fusse-t-il estampillé IA, et donc l'éditeur du logiciel devrait être au courant de l'affaire et prendre les mesures pour éviter que le mec en question passe aux actes???

Dans les pays européens, la procédure judiciaire n'aurait aucune chance d'aboutir en faveur de la plaignante mais aux USA tout est possible... Les USA où un fabricant de clavier pourrait être condamné à des centaines de millions de dommages et intérêts parce que l'un de ses utilisateurs s'est cassé un ongle en tapant sur une touche du clavier
0  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 17/03/2026 à 23:32
À ces risques psychologiques s'ajoute une faille technique béante. Le système de détection d'âge d'OpenAI identifiait à tort des mineurs comme des adultes dans environ 12 % des cas. Avec approximativement 100 millions d'utilisateurs mineurs par semaine, ce taux d'erreur pourrait donner accès à des contenus érotiques à des millions d'adolescents.
Comment ça, vous avez dit entre 10 et 30% d'hallucinations ?
Mais qui aurait pu prédire ?

Du cul, du cul, du cul : le credo d'une société à but non lucratif dont le seul objectif annoncé est la construction d'un monde-meilleur-qui-ne-serait-pas-atteignable-sans-sa-technologie.
2  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/03/2026 à 9:18
Citation Envoyé par Stéphane le calme Voir le message
En début mars 2026, OpenAI a reporté sine die le lancement du mode adulte, officiellement pour concentrer ses efforts sur d'autres produits. L'entreprise a toutefois précisé que la fonctionnalité était toujours prévue. La date n'a pas été communiquée.
Un mode pour adulte pourrait rapporter énormément d'argent.
Pour avoir accès au service il faudrait inscrire sa carte bancaire (plein de mineurs n'ont pas de carte bancaire).

Les mineurs peuvent facilement accéder à de la pornographie ailleurs, donc l'argument de « l'accès à des contenus érotiques à des millions d'adolescents » ne fonctionne pas du tout pour moi.
Il suffit d'avoir une adresse spéciale pour le mode adulte et que l'adresse soit dans la liste noire du filtre parentale et voilà.
2  3 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 23/03/2026 à 14:38
ils n'auront pas le choix.

openai est concurrencé par les gafams qui ont des fonds illimités (google...), il faudra bien trouver de l'argent.
Historiquement, le XXX a toujours été une bonne source de revenue. Xavier Niel a commencé par la en france par exemple.
La question ne se pose même pas, chatgpt va devoir générer du porn si la boite veut survivre. Et elle va devoir le faire mieux que Grok et les autres.
0  1