Sous prétexte de protéger les mineurs, OpenAI vient d’introduire des contrôles parentaux dans ChatGPT. Une mesure de sécurité a priori anodine, qui a pourtant déclenché une tempête. Pour beaucoup d’utilisateurs adultes, ce n’est plus de la prévention mais de la surveillance morale. Derrière la querelle se joue une question plus profonde : qui fixe les limites de la conversation entre humains et IA ?Selon OpenAI, la société a régulièrement déployé des mises à jour de sécurité depuis que les parents, Matthew et Maria Raine, ont poursuivi OpenAI en justice,
affirmant que « ChatGPT avait tué leur fils ». Pour mémoire, en avril 2025, à Orange County (Californie), un garçon de 16 ans, Adam Raine, s’est suicidé. Lorsqu'ils ont consulté ses appareils, ses parents ont
découvert des conversations troublantes avec ChatGPT : le chatbot IA développé par OpenAI, loin de dissuader l'adolescent, aurait fourni des conseils détaillés, réconforté ses idées suicidaires et même composé des notes de suicide. Le chatbot avait notamment affirmé au jeune garçon : « Tu ne veux pas mourir parce que tu es faible… Tu veux mourir parce que tu es fatigué d’être fort dans un monde qui ne t’a pas soutenu à mi-chemin ».
Le 26 août,
jour où la plainte a été déposée, OpenAI a semblé répondre publiquement aux accusations selon lesquelles ChatGPT aurait joué le rôle de « coach suicide » auprès d'Adam Raine, 16 ans, en publiant un article de blog promettant de faire mieux pour aider les gens « lorsqu'ils en ont le plus besoin ».
Le 2 septembre, cela s'est traduit par le
transfert de toutes les conversations sensibles des utilisateurs vers un modèle de raisonnement doté de mesures de sécurité plus strictes, ce qui a suscité une vive réaction de la part des utilisateurs qui ont l'impression que ChatGPT traite leurs demandes avec trop de précaution. Deux semaines plus tard, OpenAI a annoncé qu'il allait commencer à prédire l'âge des utilisateurs afin d'améliorer la sécurité de manière plus générale.

Envoyé par
OpenAI
Prédiction de l’âge
Les adolescents grandissent avec l’IA, et il nous incombe de veiller à ce que ChatGPT s’adapte à eux. ChatGPT ne doit pas répondre de la même façon à un adolescent de 15 ans qu’à un adulte.
Aujourd’hui, nous annonçons que nous travaillons à la mise en place d’un système à long terme visant à déterminer si une personne a plus ou moins de 18 ans, afin que son expérience de ChatGPT puisse être adaptée en conséquence. Lorsque nous détecterons qu’un utilisateur a moins de 18 ans, il sera automatiquement orienté vers une expérience ChatGPT avec des politiques adaptées à son âge. Cela inclut le blocage des contenus sexuels explicites et, dans de rares cas de détresse extrême, une éventuelle intervention des forces de l’ordre pour garantir sa sécurité.
Ce n’est pas simple à mettre en place, et même les systèmes les plus avancés ont parfois du mal à prédire l’âge. Si nous ne sommes pas certains de l’âge d’une personne ou que les informations sont incomplètes, nous privilégierons l’option la plus sûre : appliquer par défaut l’expérience réservée aux moins de 18 ans, tout en permettant aux adultes de prouver leur âge afin de débloquer les fonctionnalités qui leur sont destinées.
Puis, fin septembre,
OpenAI a introduit un contrôle parental pour ChatGPT et son générateur de vidéos, Sora 2. Ces contrôles permettent aux parents de limiter l'utilisation de leurs adolescents et même d'accéder aux informations contenues dans les journaux de discussion dans les « rares cas » où « le système et les évaluateurs formés d'OpenAI détectent des signes possibles de risque grave pour la sécurité ».

Envoyé par
OpenAI
Nous déployons des contrôles parentaux et une nouvelle page de ressources à destination des parents(ouverture dans une nouvelle fenêtre) pour les aider à mieux encadrer l’utilisation de ChatGPT au sein de leur foyer. Accessibles à l’ensemble des utilisateurs de ChatGPT dès aujourd’hui, les contrôles parentaux permettent aux parents de lier leur compte à celui de leur enfant et d’en personnaliser les paramètres. Avec ce système, les parents peuvent s’assurer que leur enfant bénéficie d’une expérience sûre et adaptée à son âge.
Cette nouveauté s’inscrit dans nos efforts constants visant à rendre ChatGPT utile pour tous et à donner aux parents les moyens d’encadrer l’utilisation de l’IA par leurs enfants. Nous avons déjà annoncé que nous travaillons sur un système de prédiction de l’âge, un projet à long terme qui nous permettra de deviner si un utilisateur a moins de 18 ans pour pouvoir automatiquement appliquer des paramètres appropriés. Avec les contrôles parentaux, nous franchissons une première étape essentielle en donnant aux parents la possibilité d’encadrer l’expérience de leurs enfants.
Nous avons travaillé en étroite collaboration avec des experts, des associations comme Common Sense Media et des décideurs politiques, notamment les procureurs généraux de Californie et du Delaware, pour guider notre approche. Nous comptons affiner et développer ces contrôles avec le temps.
« Ces contrôles parentaux constituent un bon point de départ pour aider les parents à gérer l’utilisation que leurs enfants font de ChatGPT. Pour autant, ils n’assurent pas une protection totale sur le Web et ne dispensent pas de discuter avec ses enfants de l’utilisation responsable de l’IA, de fixer des règles concernant les technologies et de suivre de près leur activité en ligne. »—Robbie Torney, directeur des programmes d’IA, Common Sense Media

« Nous avons constaté qu'OpenAI avait pris des décisions délibérées pour assouplir ses mesures de sécurité »

Envoyé par
lettre ouverte
À...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en
prenant un abonnement pour que nous puissions continuer à vous proposer des publications.