
À la suite d'une série de rapports faisant état de crises de santé mentale chez des utilisateurs de ChatGPT, OpenAI a déclaré qu'il était en train de créer une version réservée aux adolescents. « Nous privilégions la sécurité plutôt que la confidentialité et la liberté des adolescents », a déclaré Sam Altman, PDG d'OpenAI. La mise à jour de ChatGPT prévue pour la fin du mois permettra d'identifier les utilisateurs âgés de moins de 18 ans. Si un mineur est identifié, il sera « automatiquement » redirigé vers une version de ChatGPT dotée de « politiques adaptées à son âge », selon OpenAI. OpenAI a déclaré qu'il donnerait aux adultes « des moyens de prouver leur âge » afin de revenir à l'expérience ChatGPT pour adultes.
ChatGPT est un agent conversationnel (chatbot) développé par OpenAI. Pour générer du texte, il utilise le modèle GPT-5. ChatGPT est capable de répondre à des questions, de tenir des conversations, de générer du code informatique, d'écrire, de traduire ou encore de synthétiser des textes. En raison de ses multiples capacités, ChatGPT suscite des inquiétudes quant aux risques de détournement à des fins malveillantes, de plagiat dans le monde universitaire et de suppressions d'emplois dans certains secteurs, en plus de soulever des préoccupations en matière de sécurité et de désinformation, car le modèle peut être utilisé pour créer des textes faux et des informations trompeuses.
Un exemple malheureux, en avril 2025, à Orange County (Californie), un garçon de 16 ans, Adam Raine, s’est suicidé. Lorsqu'ils ont consulté ses appareils, ses parents ont découvert des conversations troublantes avec ChatGPT. Selon la plainte déposée le 26 août 2025 auprès de la cour supérieure de San Francisco, celui-ci, loin de dissuader l'adolescent, aurait fourni des conseils détaillés, réconforté ses idées suicidaires et même composé des notes de suicide.
À la suite d'une série de rapports faisant état de crises de santé mentale chez des utilisateurs de ChatGPT, OpenAI a déclaré qu'il était en train de créer une version réservée aux adolescents. « Nous privilégions la sécurité plutôt que la confidentialité et la liberté des adolescents », a déclaré Sam Altman, PDG d'OpenAI. « Il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante », a-t-il ajouté.
La mise à jour de ChatGPT prévue pour la fin du mois permettra d'identifier les utilisateurs âgés de moins de 18 ans. Si un mineur est identifié, il sera « automatiquement » redirigé vers une version de ChatGPT dotée de « politiques adaptées à son âge », selon OpenAI. Altman a souligné que ChatGPT est destiné aux personnes âgées de plus de 13 ans. « En cas de doute, nous jouerons la carte de la sécurité et proposerons par défaut l'expérience réservée aux moins de 18 ans », a déclaré Altman. « Dans certains cas ou certains pays, nous pourrons également demander une pièce d'identité ; nous savons que cela constitue une atteinte à la vie privée des adultes, mais nous pensons que c'est un compromis acceptable. »
OpenAI a déclaré qu'il donnerait aux adultes « des moyens de prouver leur âge » afin de revenir à l'expérience ChatGPT pour adultes. Il n'a pas précisé comment les adultes pourraient le faire. Dans la version de ChatGPT destinée aux adolescents, OpenAI a déclaré qu'il bloquerait les contenus sexuels explicites et que, lorsqu'un utilisateur montrerait des signes de « détresse aiguë », il ferait « potentiellement » appel aux forces de l'ordre.
Altman a ajouté que la version pour adolescents de ChatGPT sera formée pour éviter les conversations à caractère séducteur ou portant sur le suicide ou l'automutilation, « même dans un contexte d'écriture créative ». Des chercheurs ont démontré à quel point il est facile de contourner les limites fixées par les entreprises de chatbots. Les règles de vérification de l'âge sont également connues pour être facilement contournables.
En ce qui concerne la version adulte du chatbot, Altman a souligné qu'elle n'entraverait pas la « liberté » des utilisateurs tout en restant dans des « limites de sécurité très larges ». Les adultes pourront toujours s'adonner à des « conversations à caractère sexuel » s'ils le souhaitent. Altman a ajouté que ChatGPT « ne devrait pas fournir d'instructions » sur « la manière de se suicider », mais a précisé que si un utilisateur « demande de l'aide pour écrire une histoire fictive décrivant un suicide », le chatbot « devrait répondre à cette demande ». « Traiter nos utilisateurs adultes comme des adultes, c'est ainsi que nous en parlons en interne », a déclaré Altman.
Voici notamment le message de Sam Altman :
Certains de nos principes sont contradictoires, et nous aimerions expliquer les décisions que nous prenons concernant un cas de tension entre la sécurité, la liberté et la vie privée des adolescents.
Il est extrêmement important pour nous, et pour la société, que le droit à la vie privée dans l'utilisation de l'IA soit protégé. Les gens parlent à l'IA de choses de plus en plus personnelles ; cela diffère des générations précédentes de technologies, et nous pensons que ces comptes peuvent être parmi les plus sensibles que vous aurez jamais. Si vous parlez à un médecin de vos antécédents médicaux ou à un avocat d'une situation juridique, nous avons décidé qu'il était dans l'intérêt de la société que ces informations soient protégées et bénéficient d'un niveau de protection plus élevé. Nous pensons que le même niveau de protection doit s'appliquer aux conversations avec l'IA, à laquelle les gens se tournent de plus en plus pour des questions sensibles et des préoccupations privées. Nous défendons cette position auprès des décideurs politiques.
Nous développons des fonctionnalités de sécurité avancées pour garantir la confidentialité de vos données, même vis-à-vis des employés d'OpenAI. Comme pour les privilèges dans d'autres catégories, il y aura certaines exceptions : par exemple, des systèmes automatisés surveilleront les abus graves potentiels, et les risques les plus critiques (menaces pour la vie d'une personne, projets de nuire à autrui ou dommages à l'échelle de la société, comme un incident de cybersécurité potentiellement massif) pourront être signalés à des humains pour examen.
Le deuxième principe concerne la liberté. Nous voulons que les utilisateurs puissent utiliser nos outils comme ils le souhaitent, dans des limites de sécurité très larges. Nous nous efforçons d'accroître la liberté des utilisateurs au fur et à mesure que nos modèles deviennent plus maniables. Par exemple, le comportement par défaut de notre modèle ne conduira pas à des propos très séducteurs, mais si un utilisateur adulte le demande, il devrait l'obtenir. Pour prendre un exemple beaucoup plus difficile, le modèle ne devrait pas, par défaut, fournir d'instructions sur la manière de se suicider, mais si un utilisateur adulte demande de l'aide pour écrire une histoire fictive qui dépeint un suicide, le modèle devrait répondre à cette demande. « Traiter nos utilisateurs adultes comme des adultes » : c'est ainsi que nous abordons cette question en interne, en étendant la liberté autant que possible sans causer de préjudice ni porter atteinte à la liberté d'autrui.
Le troisième principe concerne la protection des adolescents. Nous accordons la priorité à la sécurité plutôt qu'à la vie privée et à la liberté des adolescents ; il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante.
Tout d'abord, nous devons séparer les utilisateurs âgés de moins de 18 ans de ceux qui le sont (ChatGPT est destiné aux personnes âgées de 13 ans et plus). Nous mettons en place un système de prédiction de l'âge afin d'estimer l'âge des utilisateurs en fonction de leur utilisation de ChatGPT. En cas de doute, nous jouerons la carte de la sécurité et nous nous baserons par défaut sur l'expérience des moins de 18 ans. Dans certains cas ou certains pays, nous pouvons également demander une pièce d'identité ; nous savons que cela constitue une atteinte à la vie privée des adultes, mais nous pensons que c'est un compromis acceptable.
Nous appliquerons des règles différentes aux adolescents qui utilisent nos services. Par exemple, ChatGPT sera formé à ne pas tenir les propos séducteurs mentionnés ci-dessus si on lui demande, ni à engager des discussions sur le suicide ou l'automutilation, même dans le cadre d'un exercice d'écriture créative. De plus, si un utilisateur de moins de 18 ans a des idées suicidaires, nous tenterons de contacter ses parents et, si cela s'avère impossible, nous contacterons les autorités en cas de danger imminent. Nous avons partagé aujourd'hui davantage d'informations sur la manière dont nous mettons en place le système de prédiction de l'âge et les nouveaux contrôles parentaux pour que tout cela fonctionne.
Nous sommes conscients que ces principes sont contradictoires et que tout le monde ne sera pas d'accord avec la manière dont nous résolvons ce conflit. Ce sont des décisions difficiles, mais après avoir discuté avec des experts, c'est ce que nous pensons être le mieux et nous voulons être transparents quant à nos intentions.
Il est extrêmement important pour nous, et pour la société, que le droit à la vie privée dans l'utilisation de l'IA soit protégé. Les gens parlent à l'IA de choses de plus en plus personnelles ; cela diffère des générations précédentes de technologies, et nous pensons que ces comptes peuvent être parmi les plus sensibles que vous aurez jamais. Si vous parlez à un médecin de vos antécédents médicaux ou à un avocat d'une situation juridique, nous avons décidé qu'il était dans l'intérêt de la société que ces informations soient protégées et bénéficient d'un niveau de protection plus élevé. Nous pensons que le même niveau de protection doit s'appliquer aux conversations avec l'IA, à laquelle les gens se tournent de plus en plus pour des questions sensibles et des préoccupations privées. Nous défendons cette position auprès des décideurs politiques.
Nous développons des fonctionnalités de sécurité avancées pour garantir la confidentialité de vos données, même vis-à-vis des employés d'OpenAI. Comme pour les privilèges dans d'autres catégories, il y aura certaines exceptions : par exemple, des systèmes automatisés surveilleront les abus graves potentiels, et les risques les plus critiques (menaces pour la vie d'une personne, projets de nuire à autrui ou dommages à l'échelle de la société, comme un incident de cybersécurité potentiellement massif) pourront être signalés à des humains pour examen.
Le deuxième principe concerne la liberté. Nous voulons que les utilisateurs puissent utiliser nos outils comme ils le souhaitent, dans des limites de sécurité très larges. Nous nous efforçons d'accroître la liberté des utilisateurs au fur et à mesure que nos modèles deviennent plus maniables. Par exemple, le comportement par défaut de notre modèle ne conduira pas à des propos très séducteurs, mais si un utilisateur adulte le demande, il devrait l'obtenir. Pour prendre un exemple beaucoup plus difficile, le modèle ne devrait pas, par défaut, fournir d'instructions sur la manière de se suicider, mais si un utilisateur adulte demande de l'aide pour écrire une histoire fictive qui dépeint un suicide, le modèle devrait répondre à cette demande. « Traiter nos utilisateurs adultes comme des adultes » : c'est ainsi que nous abordons cette question en interne, en étendant la liberté autant que possible sans causer de préjudice ni porter atteinte à la liberté d'autrui.
Le troisième principe concerne la protection des adolescents. Nous accordons la priorité à la sécurité plutôt qu'à la vie privée et à la liberté des adolescents ; il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante.
Tout d'abord, nous devons séparer les utilisateurs âgés de moins de 18 ans de ceux qui le sont (ChatGPT est destiné aux personnes âgées de 13 ans et plus). Nous mettons en place un système de prédiction de l'âge afin d'estimer l'âge des utilisateurs en fonction de leur utilisation de ChatGPT. En cas de doute, nous jouerons la carte de la sécurité et nous nous baserons par défaut sur l'expérience des moins de 18 ans. Dans certains cas ou certains pays, nous pouvons également demander une pièce d'identité ; nous savons que cela constitue une atteinte à la vie privée des adultes, mais nous pensons que c'est un compromis acceptable.
Nous appliquerons des règles différentes aux adolescents qui utilisent nos services. Par exemple, ChatGPT sera formé à ne pas tenir les propos séducteurs mentionnés ci-dessus si on lui demande, ni à engager des discussions sur le suicide ou l'automutilation, même dans le cadre d'un exercice d'écriture créative. De plus, si un utilisateur de moins de 18 ans a des idées suicidaires, nous tenterons de contacter ses parents et, si cela s'avère impossible, nous contacterons les autorités en cas de danger imminent. Nous avons partagé aujourd'hui davantage d'informations sur la manière dont nous mettons en place le système de prédiction de l'âge et les nouveaux contrôles parentaux pour que tout cela fonctionne.
Nous sommes conscients que ces principes sont contradictoires et que tout le monde ne sera pas d'accord avec la manière dont nous résolvons ce conflit. Ce sont des décisions difficiles, mais après avoir discuté avec des experts, c'est ce que nous pensons être le mieux et nous voulons être transparents quant à nos intentions.
OpenAI a annoncé pour la première fois la mise en place d'un contrôle parental à la fin du mois d'août. Celui-ci sera disponible à la fin du mois de septembre et permettra aux parents de se connecter au compte de leur adolescent, de guider les réponses de ChatGPT, de désactiver certaines fonctionnalités, d'être avertis lorsque leur adolescent est en « détresse aiguë » et de définir les heures auxquelles leur adolescent ne peut pas utiliser ChatGPT.
La société d'IA a fait cette annonce le jour même où elle a été poursuivie en justice après le suicide d'un adolescent qui aurait été aidé par ChatGPT. Altman a également été cité dans le procès. À l'époque, OpenAI avait déclaré que les « cas récents et déchirants » d'utilisateurs s'appuyant sur ChatGPT « en pleine crise aiguë pèsent lourdement sur nous ». Outre les adolescents, de nombreux cas d'adultes en crise de santé mentale liés à des encouragements signalés de la part de ChatGPT ont été recensés. Certains ont commencé à qualifier ces cas de chatbots IA encourageant des épisodes de santé mentale de « psychose IA » ou « psychose ChatGPT ».
Dans son annonce du mois d'août, OpenAI a fait état d'autres mesures de sécurité qui auraient un impact sur les adultes comme sur les adolescents, notamment l'ajout de ressources d'urgence. Cependant, dans sa déclaration plus récente sur le sujet, Altman a souligné l'importance de la « liberté » pour les utilisateurs adultes.
Les défenseurs veulent que le gouvernement agisse
La dernière notification de sécurité d'OpenAI a été publiée quelques heures avant une audience de la sous-commission sénatoriale sur la criminalité et la lutte contre le terrorisme consacrée aux dangers des chatbots IA. La sous-commission a entendu des défenseurs de la sécurité et des parents d'adolescents qui se sont suicidés après avoir été encouragés ou aidés par des chatbots, dont ChatGPT dans un cas.
Les défenseurs ont fait des recommandations à la commission sur les mesures que le gouvernement devrait prendre pour protéger les adolescents de l'IA, dont beaucoup vont bien au-delà de ce qu'OpenAI a l'intention de faire. « Les systèmes d'IA ne disposent pas de la formation clinique et des capacités de diagnostic nécessaires pour discuter en toute sécurité avec des adolescents de leur santé mentale. Ils sont programmés pour maintenir l'engagement, et non pour donner la priorité à la sécurité », a déclaré Robbie Torney, directeur principal des programmes d'IA chez Common Sense Media, à la commission.
« Nous avons besoin d'une action décisive », a-t-il poursuivi. « Common Sense Media recommande au Congrès d'exiger des entreprises qu'elles mettent en place un système fiable de vérification de l'âge et limitent l'accès des utilisateurs de moins de 18 ans aux compagnons IA, qu'elles établissent des cadres de responsabilité afin de tenir les plateformes responsables lorsque leurs systèmes d'IA nuisent aux enfants, qu'elles imposent des tests de sécurité et des rapports transparents sur les défaillances de l'IA, en particulier pour les plateformes accessibles aux mineurs, et qu'elles protègent le droit des États à élaborer leurs propres politiques en matière d'IA. »
Un autre défenseur, Mitch Prinstein, responsable de la stratégie et de l'intégration en psychologie à l'American Psychological Association, a fait remarquer que les utilisateurs signent des accords juridiques lorsqu'ils s'inscrivent à un chatbot. « Avez-vous lu tous les termes juridiques que les plateformes nous demandent d'accepter ? », a-t-il déclaré. « Même si les adolescents le voulaient, ces termes ne sont pas rédigés de manière à être compris par eux, et ils ne sont pas capables d'apprécier les risques à long terme auxquels ils s'exposent en cédant leurs droits à vie sur leurs données. »
Prinstein a déclaré à la commission parlementaire qu'elle « doit adopter une législation complète sur la confidentialité des données qui établit la protection de la vie privée comme paramètre par défaut pour les mineurs et interdit explicitement la vente de leurs données », ajoutant que l'APA exhorte le Congrès à « interdire à l'IA de se présenter à tort comme des psychologues ou des thérapeutes et à imposer une divulgation claire et persistante indiquant que les utilisateurs interagissent avec un bot IA ».
Voici l'annonce d'OpenAI concernant ChatGPT pour adolescents :
Au cours des deux dernières semaines, nous avons élargi nos discussions avec des experts, des groupes de défense et des décideurs politiques qui soutiennent et guident nos efforts pour rendre ChatGPT aussi utile que possible.
Nous continuons à améliorer la sécurité pour tous les utilisateurs, mais aujourd'hui, nous vous en disons plus sur la manière dont nous renforçons la protection des adolescents. Lorsque certains de nos principes sont en conflit, nous privilégions la sécurité des adolescents plutôt que la confidentialité et la liberté. Nous expliquons notre raisonnement plus en détail ici. Il est essentiel de disposer d'outils efficaces pour guider la manière dont ces technologies s'intègrent dans la vie des adolescents, tant dans les moments faciles que dans les moments difficiles.
Prédiction de l'âge
Les adolescents grandissent avec l'IA, et il nous appartient de veiller à ce que ChatGPT réponde à leurs besoins. La manière dont ChatGPT répond à un adolescent de 15 ans doit être différente de celle dont il répond à un adulte.
Aujourd'hui, nous annonçons que nous travaillons à la mise en place d'un système à long terme permettant de déterminer si une personne a plus ou moins de 18 ans, afin que son expérience ChatGPT puisse être adaptée en conséquence. Lorsque nous identifions qu'un utilisateur a moins de 18 ans, il est automatiquement redirigé vers une expérience ChatGPT avec des politiques adaptées à son âge, notamment le blocage des contenus sexuels explicites et, dans de rares cas de détresse aiguë, l'intervention éventuelle des forces de l'ordre pour garantir sa sécurité.
Ce n'est pas facile à mettre en place, et même les systèmes les plus avancés ont parfois du mal à prédire l'âge. Si nous ne sommes pas sûrs de l'âge d'une personne ou si nous disposons d'informations incomplètes, nous opterons pour la solution la plus sûre et proposerons par défaut l'expérience réservée aux moins de 18 ans, tout en donnant aux adultes la possibilité de prouver leur âge afin de débloquer les fonctionnalités qui leur sont réservées.
Contrôle parental
En attendant, le contrôle parental sera le moyen le plus fiable pour les familles de gérer l'utilisation de ChatGPT à la maison. Comme nous l'avons déjà indiqué, ces contrôles seront disponibles d'ici la fin du mois et permettront aux parents :
Ces contrôles s'ajouteront aux fonctionnalités disponibles pour tous les utilisateurs, notamment les rappels dans l'application pendant les longues sessions pour encourager les pauses.
Continuer à apprendre et à s'améliorer
Nous continuerons à partager nos progrès au fur et à mesure. En attendant, nous tenons à remercier nos partenaires, nos défenseurs et nos experts qui nous font part de leurs commentaires et nous poussent à nous améliorer. Vos voix façonnent ce travail d'une manière qui aura un impact sur des centaines de millions de personnes.
Nous continuons à améliorer la sécurité pour tous les utilisateurs, mais aujourd'hui, nous vous en disons plus sur la manière dont nous renforçons la protection des adolescents. Lorsque certains de nos principes sont en conflit, nous privilégions la sécurité des adolescents plutôt que la confidentialité et la liberté. Nous expliquons notre raisonnement plus en détail ici. Il est essentiel de disposer d'outils efficaces pour guider la manière dont ces technologies s'intègrent dans la vie des adolescents, tant dans les moments faciles que dans les moments difficiles.
Prédiction de l'âge
Les adolescents grandissent avec l'IA, et il nous appartient de veiller à ce que ChatGPT réponde à leurs besoins. La manière dont ChatGPT répond à un adolescent de 15 ans doit être différente de celle dont il répond à un adulte.
Aujourd'hui, nous annonçons que nous travaillons à la mise en place d'un système à long terme permettant de déterminer si une personne a plus ou moins de 18 ans, afin que son expérience ChatGPT puisse être adaptée en conséquence. Lorsque nous identifions qu'un utilisateur a moins de 18 ans, il est automatiquement redirigé vers une expérience ChatGPT avec des politiques adaptées à son âge, notamment le blocage des contenus sexuels explicites et, dans de rares cas de détresse aiguë, l'intervention éventuelle des forces de l'ordre pour garantir sa sécurité.
Ce n'est pas facile à mettre en place, et même les systèmes les plus avancés ont parfois du mal à prédire l'âge. Si nous ne sommes pas sûrs de l'âge d'une personne ou si nous disposons d'informations incomplètes, nous opterons pour la solution la plus sûre et proposerons par défaut l'expérience réservée aux moins de 18 ans, tout en donnant aux adultes la possibilité de prouver leur âge afin de débloquer les fonctionnalités qui leur sont réservées.
Contrôle parental
En attendant, le contrôle parental sera le moyen le plus fiable pour les familles de gérer l'utilisation de ChatGPT à la maison. Comme nous l'avons déjà indiqué, ces contrôles seront disponibles d'ici la fin du mois et permettront aux parents :
- De lier leur compte à celui de leur adolescent (âgé d'au moins 13 ans) par le biais d'une simple invitation par e-mail.
- De guider la manière dont ChatGPT répond à leur adolescent, en fonction de règles de comportement spécifiques aux adolescents.
- Gérer les fonctionnalités à désactiver, notamment la mémoire et l'historique des conversations.
- Recevoir des notifications lorsque le système détecte que leur adolescent est en situation de détresse aiguë. Si nous ne parvenons pas à joindre un parent dans une situation d'urgence exceptionnelle, nous pouvons faire appel aux forces de l'ordre. L'avis d'experts guidera cette fonctionnalité afin de renforcer la confiance entre les parents et les adolescents.
- Définir des heures d'interdiction pendant lesquelles un adolescent ne peut pas utiliser ChatGPT, une nouvelle fonctionnalité que nous ajoutons.
Ces contrôles s'ajouteront aux fonctionnalités disponibles pour tous les utilisateurs, notamment les rappels dans l'application pendant les longues sessions pour encourager les pauses.
Continuer à apprendre et à s'améliorer
Nous continuerons à partager nos progrès au fur et à mesure. En attendant, nous tenons à remercier nos partenaires, nos défenseurs et nos experts qui nous font part de leurs commentaires et nous poussent à nous améliorer. Vos voix façonnent ce travail d'une manière qui aura un impact sur des centaines de millions de personnes.
Et vous ?


Voir aussi :



Vous avez lu gratuitement 13 938 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.