IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI annonce la mise en place d'un contrôle parental pour ChatGPT après le suicide d'un adolescent
Qui permettra aux parents de recevoir des notifications si ChatGPT détecte une « détresse aiguë »

Le , par Alex

325PARTAGES

7  0 
OpenAI annonce la mise en place d'un contrôle parental pour ChatGPT après le suicide d'un adolescent. La société spécialisée dans l'IA annonce des changements alors que les inquiétudes grandissent quant à l'impact des chatbots sur la santé mentale des jeunes. Grâce à ces changements, les parents pourront associer leurs comptes ChatGPT à ceux de leurs enfants, désactiver certaines fonctionnalités, notamment la mémoire et l'historique des conversations, et contrôler la manière dont le chatbot répond aux questions grâce à des « règles de comportement adaptées à l'âge ».

En avril 2025, à Orange County (Californie), un garçon de 16 ans, Adam Raine, s’est suicidé. Lorsqu'ils ont consulté ses appareils, ses parents ont découvert des conversations troublantes avec ChatGPT. Selon la plainte déposée le 26 août 2025 auprès de la cour supérieure de San Francisco, celui-ci, loin de dissuader l'adolescent, aurait fourni des conseils détaillés, réconforté ses idées suicidaires et même composé des notes de suicide.

Ce cas montre l'impact néfaste de l'intelligence artificielle (IA) sur la santé mentale des jeunes. Face à la controverse grandissante, OpenAI a annoncé son intention d'introduire un contrôle parental pour ChatGPT. L'entreprise californienne spécialisée dans l'IA a déclaré qu'elle déployait ces fonctionnalités afin de répondre aux besoins des familles qui ont besoin d'aide « pour établir des règles saines adaptées au stade de développement particulier des adolescents ».

Grâce à ces changements, les parents pourront associer leurs comptes ChatGPT à ceux de leurs enfants, désactiver certaines fonctionnalités, notamment la mémoire et l'historique des conversations, et contrôler la manière dont le chatbot répond aux questions grâce à des « règles de comportement adaptées à l'âge ». Les parents pourront également recevoir des notifications lorsque leur adolescent montre des signes de détresse, a déclaré OpenAI, ajoutant qu'elle ferait appel à des experts pour mettre en œuvre cette fonctionnalité afin de « renforcer la confiance entre les parents et les adolescents ».

OpenAI, qui a annoncé une série de mesures visant à renforcer la sécurité des utilisateurs vulnérables, a déclaré que ces changements entreraient en vigueur dans le mois à venir. « Ces mesures ne sont qu'un début », a déclaré la société. « Nous continuerons à apprendre et à renforcer notre approche, guidés par des experts, dans le but de rendre ChatGPT aussi utile que possible. Nous sommes impatients de partager nos progrès au cours des 120 prochains jours. »


L'annonce d'OpenAI intervient une semaine après qu'un couple californien a intenté un procès accusant la société d'être responsable du suicide de leur fils de 16 ans. Matt et Maria Raine affirment dans leur plainte que ChatGPT a validé les « pensées les plus néfastes et autodestructrices » de leur fils Adam et que sa mort était « le résultat prévisible de choix de conception délibérés ». OpenAI, qui avait précédemment exprimé ses condoléances suite au décès de l'adolescent, n'a pas explicitement mentionné cette affaire dans son annonce concernant le contrôle parental.

Jay Edelson, l'avocat qui représente la famille Raine dans cette affaire, a rejeté les changements prévus par OpenAI, les qualifiant de tentative de « détourner le débat ». « Ils disent que le produit devrait simplement être plus sensible aux personnes en crise, être plus « utile », faire preuve d'un peu plus d'« empathie », et que les experts vont trouver une solution », a déclaré Edelson dans un communiqué. « Nous comprenons, d'un point de vue stratégique, pourquoi ils veulent cela : OpenAI ne peut pas répondre à ce qui est réellement arrivé à Adam. Car le cas d'Adam ne concerne pas le fait que ChatGPT n'ait pas été « utile », mais plutôt qu'un produit ait activement poussé un adolescent au suicide. »

L'utilisation de modèles d'IA par des personnes souffrant de troubles mentaux graves suscite de plus en plus d'inquiétudes, alors que ces modèles sont de plus en plus largement adoptés comme substituts à un thérapeute ou à un ami.

Dans une étude publiée le mois dernier dans Psychiatric Services, des chercheurs ont constaté que ChatGPT, Gemini de Google et Claude d'Anthropic suivaient les meilleures pratiques cliniques lorsqu'ils répondaient à des questions à haut risque sur le suicide, mais qu'ils étaient incohérents lorsqu'ils répondaient à des questions présentant un « niveau de risque intermédiaire ». « Ces résultats suggèrent qu'il est nécessaire d'affiner davantage les modèles afin de garantir que les LLM puissent être utilisés de manière sûre et efficace pour diffuser des informations sur la santé mentale, en particulier dans les situations à haut risque impliquant des idées suicidaires », ont déclaré les auteurs.

Hamilton Morrin, psychiatre au King's College de Londres qui a mené des recherches sur la psychose liée à l'IA, a salué la décision d'OpenAI d'introduire des contrôles parentaux, affirmant qu'ils pourraient potentiellement réduire le risque de dépendance excessive ou d'exposition à des contenus préjudiciables. « Cela dit, les contrôles parentaux doivent être considérés comme un élément parmi d'autres d'un ensemble plus large de mesures de protection, plutôt que comme une solution en soi. D'une manière générale, je dirais que la réponse de l'industrie technologique aux risques pour la santé mentale a souvent été réactive plutôt que proactive », a déclaré Morrin. « Des progrès ont été réalisés, mais les entreprises pourraient aller plus loin en collaborant avec des cliniciens, des chercheurs et des groupes d'expérience vécue afin de mettre en place des systèmes axés sur la sécurité dès le départ, plutôt que de s'appuyer sur des mesures ajoutées après que des préoccupations ont été soulevées. »

Cet évènement rappelle le cas de Sewell Setzer III, 14 ans, qui s'est suicidé quelques minutes après avoir parlé à un chatbot IA de la société Character.ai. Le chatbot avec lequel Setzer parlait était basé sur le personnage de Game of Thrones, Daenerys Targaryen. Sa mère, Megan Garcia,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 21/09/2025 à 16:31
Que fait un enfant sur Character.IA aussi ?

Je suis désolée, mais au bout d'un moment, faut aussi que les parents soient responsable de leur enfants !
Cette affaire va encore être un prétexte pour nous imposer des lois liberticides (vérification d'âge ect).

L'internet doit rester libre, et la sanction devrait tomber sur les parents qui ne surveillent pas leur enfant.
Si un enfant démarre une voiture et fait un accident, on ne va pas accuser le fabricant, mais les parents... Pourquoi cette règle ne s'applique pas sur Internet ?
7  2 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 25/09/2025 à 22:31
Citation Envoyé par Artaeus Voir le message
Que fait un enfant sur Character.IA aussi ?

Je suis désolée, mais au bout d'un moment, faut aussi que les parents soient responsable de leur enfants !
Cette affaire va encore être un prétexte pour nous imposer des lois liberticides (vérification d'âge ect).

L'internet doit rester libre, et la sanction devrait tomber sur les parents qui ne surveillent pas leur enfant.
d'un côté tu critiques le fait qu'un enfant soit sur Character.AI (et non IA)
d'un autre côté tu dis que l'Internet doit rester libre
en tant que parent, j'affirme qu'il est de plus en plus difficile de veiller à protéger nos enfants face à toutes ces menaces d'IA et de réseaux associaux

Citation Envoyé par Artaeus Voir le message
Si un enfant démarre une voiture et fait un accident, on ne va pas accuser le fabricant, mais les parents... Pourquoi cette règle ne s'applique pas sur Internet ?
tant que la voiture l'influence pas le "conducteur" à rouler plus vite, écraser des scouts, semer la police
bref, compares ce qui est comparable, le problème ici c'est que l'IA a influencée un jeune

mais n'oublions pas que cette histoire n'est pas en France
pour l'avoir testée, cette IA devrait être démantelée
3  1 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 09/10/2025 à 19:23
C'est aux parents de surveiller leurs enfants !

Faut arrêter cette rhétorique ridicule qui n'aboutira qu'à un contrôle d'identité numérique sur l'ensemble d'internet.
4  2 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 09/11/2025 à 16:47
Porter plainte contre les fabricants de cordes empêcherait-il les gens de se pendre ?
3  2 
Avatar de Xavdeb
Futur Membre du Club https://www.developpez.com
Le 18/03/2026 à 18:55
On était moins regardant à l'époque du téléphone rose

Que s'est-il passé ?
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/03/2026 à 8:53
Citation Envoyé par Xavdeb Voir le message
On était moins regardant à l'époque du téléphone rose
L'imagination jouait un grand rôle, quand on est exposé à de la pornographie hardcore ça n'a pas le même effet sur le cerveau.

Le spectre de la pornographie est large, ça va du vraiment très soft (où l'imagination joue le rôle principal) à de l’extrême (où c'est graphique et le spectateur subis).
Si un enfant se met à regarder du contenu extrême ça peut avoir des conséquences négatives sur son cerveau.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 11:21
On résume: 1 mec parmi des millions d'autres dans le monde se confie à un programme informatique, fusse-t-il estampillé IA, et donc l'éditeur du logiciel devrait être au courant de l'affaire et prendre les mesures pour éviter que le mec en question passe aux actes???

Dans les pays européens, la procédure judiciaire n'aurait aucune chance d'aboutir en faveur de la plaignante mais aux USA tout est possible... Les USA où un fabricant de clavier pourrait être condamné à des centaines de millions de dommages et intérêts parce que l'un de ses utilisateurs s'est cassé un ongle en tapant sur une touche du clavier
0  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 17/03/2026 à 23:32
À ces risques psychologiques s'ajoute une faille technique béante. Le système de détection d'âge d'OpenAI identifiait à tort des mineurs comme des adultes dans environ 12 % des cas. Avec approximativement 100 millions d'utilisateurs mineurs par semaine, ce taux d'erreur pourrait donner accès à des contenus érotiques à des millions d'adolescents.
Comment ça, vous avez dit entre 10 et 30% d'hallucinations ?
Mais qui aurait pu prédire ?

Du cul, du cul, du cul : le credo d'une société à but non lucratif dont le seul objectif annoncé est la construction d'un monde-meilleur-qui-ne-serait-pas-atteignable-sans-sa-technologie.
2  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/03/2026 à 9:18
Citation Envoyé par Stéphane le calme Voir le message
En début mars 2026, OpenAI a reporté sine die le lancement du mode adulte, officiellement pour concentrer ses efforts sur d'autres produits. L'entreprise a toutefois précisé que la fonctionnalité était toujours prévue. La date n'a pas été communiquée.
Un mode pour adulte pourrait rapporter énormément d'argent.
Pour avoir accès au service il faudrait inscrire sa carte bancaire (plein de mineurs n'ont pas de carte bancaire).

Les mineurs peuvent facilement accéder à de la pornographie ailleurs, donc l'argument de « l'accès à des contenus érotiques à des millions d'adolescents » ne fonctionne pas du tout pour moi.
Il suffit d'avoir une adresse spéciale pour le mode adulte et que l'adresse soit dans la liste noire du filtre parentale et voilà.
2  3 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 23/03/2026 à 14:38
ils n'auront pas le choix.

openai est concurrencé par les gafams qui ont des fonds illimités (google...), il faudra bien trouver de l'argent.
Historiquement, le XXX a toujours été une bonne source de revenue. Xavier Niel a commencé par la en france par exemple.
La question ne se pose même pas, chatgpt va devoir générer du porn si la boite veut survivre. Et elle va devoir le faire mieux que Grok et les autres.
0  1