
ChatGPT est un agent conversationnel (chatbot) développé par OpenAI. Pour générer du texte, il utilise le modèle GPT-5. ChatGPT est capable de répondre à des questions, de tenir des conversations, de générer du code informatique, d'écrire, de traduire ou encore de synthétiser des textes. En raison de ses multiples capacités, ChatGPT suscite des inquiétudes quant aux risques de détournement à des fins malveillantes, de plagiat dans le monde universitaire et de suppressions d'emplois dans certains secteurs, en plus de soulever des préoccupations en matière de sécurité et de désinformation, car le modèle peut être utilisé pour créer des textes faux et des informations trompeuses.
Un exemple malheureux, en avril 2025, à Orange County (Californie), un garçon de 16 ans, Adam Raine, s’est suicidé. Lorsqu'ils ont consulté ses appareils, ses parents ont découvert des conversations troublantes avec ChatGPT. Selon la plainte déposée le 26 août 2025 auprès de la cour supérieure de San Francisco, celui-ci, loin de dissuader l'adolescent, aurait fourni des conseils détaillés, réconforté ses idées suicidaires et même composé des notes de suicide.
À la suite d'une série de rapports faisant état de crises de santé mentale chez des utilisateurs de ChatGPT, OpenAI a déclaré qu'il était en train de créer une version réservée aux adolescents. « Nous privilégions la sécurité plutôt que la confidentialité et la liberté des adolescents », a déclaré Sam Altman, PDG d'OpenAI. « Il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante », a-t-il ajouté.
La mise à jour de ChatGPT prévue pour la fin du mois permettra d'identifier les utilisateurs âgés de moins de 18 ans. Si un mineur est identifié, il sera « automatiquement » redirigé vers une version de ChatGPT dotée de « politiques adaptées à son âge », selon OpenAI. Altman a souligné que ChatGPT est destiné aux personnes âgées de plus de 13 ans. « En cas de doute, nous jouerons la carte de la sécurité et proposerons par défaut l'expérience réservée aux moins de 18 ans », a déclaré Altman. « Dans certains cas ou certains pays, nous pourrons également demander une pièce d'identité ; nous savons que cela constitue une atteinte à la vie privée des adultes, mais nous pensons que c'est un compromis acceptable. »
OpenAI a déclaré qu'il donnerait aux adultes « des moyens de prouver leur âge » afin de revenir à l'expérience ChatGPT pour adultes. Il n'a pas précisé comment les adultes pourraient le faire. Dans la version de ChatGPT destinée aux adolescents, OpenAI a déclaré qu'il bloquerait les contenus sexuels explicites et que, lorsqu'un utilisateur montrerait des signes de « détresse aiguë », il ferait « potentiellement » appel aux forces de l'ordre.
Altman a ajouté que la version pour adolescents de ChatGPT sera formée pour éviter les conversations à caractère séducteur ou portant sur le suicide ou l'automutilation, « même dans un contexte d'écriture créative ». Des chercheurs ont démontré à quel point il est facile de contourner les limites fixées par les entreprises de chatbots. Les règles de vérification de l'âge sont également connues pour être facilement contournables.
En ce qui concerne la version adulte du chatbot, Altman a souligné qu'elle n'entraverait pas la « liberté » des utilisateurs tout en restant dans des « limites de sécurité très larges ». Les adultes pourront toujours s'adonner à des « conversations à caractère sexuel » s'ils le souhaitent. Altman a ajouté que ChatGPT « ne devrait pas fournir d'instructions » sur « la manière de se suicider », mais a précisé que si un utilisateur « demande de l'aide pour écrire une histoire fictive décrivant un suicide », le chatbot « devrait répondre à cette demande ». « Traiter nos utilisateurs adultes comme des adultes, c'est ainsi que nous en parlons en interne », a déclaré Altman.
Voici notamment le message de Sam Altman :
Certains de nos principes sont contradictoires, et nous aimerions expliquer les décisions que nous prenons concernant un cas de tension entre la sécurité, la liberté et la vie privée des adolescents.
Il est extrêmement important pour nous, et pour la société, que le droit à la vie privée dans l'utilisation de l'IA soit protégé. Les gens parlent à l'IA de choses de plus en plus personnelles ; cela diffère des générations précédentes de technologies, et nous pensons que ces comptes peuvent être parmi les plus sensibles que vous aurez jamais. Si vous parlez à un médecin de vos antécédents médicaux ou à un avocat d'une situation juridique, nous avons décidé qu'il était dans l'intérêt de la société que ces informations soient protégées et bénéficient d'un niveau de protection plus élevé. Nous pensons que le même niveau de protection doit s'appliquer aux conversations avec l'IA, à laquelle les gens se tournent de plus en plus pour des questions sensibles et des préoccupations privées. Nous défendons cette position auprès des décideurs politiques.
Nous développons des fonctionnalités de sécurité avancées pour garantir la confidentialité de vos données, même vis-à-vis des employés d'OpenAI. Comme pour les privilèges dans d'autres catégories, il y aura certaines exceptions : par exemple, des systèmes automatisés surveilleront les abus graves potentiels, et les risques les plus critiques (menaces pour la vie d'une personne, projets de nuire à autrui ou dommages à l'échelle de la société, comme un incident de cybersécurité potentiellement massif) pourront être signalés à des humains pour examen.
Le deuxième principe concerne la liberté. Nous voulons que les utilisateurs puissent utiliser nos outils comme ils le souhaitent, dans des limites de sécurité très larges. Nous nous efforçons d'accroître la liberté des utilisateurs au fur et à mesure que nos modèles deviennent plus maniables. Par exemple, le comportement par défaut de notre modèle ne conduira pas à des propos très séducteurs, mais si un utilisateur adulte le demande, il devrait l'obtenir. Pour prendre un exemple beaucoup plus difficile, le modèle ne devrait pas, par défaut, fournir d'instructions sur la manière de se suicider, mais si un utilisateur adulte demande de l'aide pour écrire une histoire fictive qui dépeint un suicide, le modèle devrait répondre à cette demande. « Traiter nos utilisateurs adultes comme des adultes » : c'est ainsi que nous abordons cette question en interne, en étendant la liberté autant que possible sans causer de préjudice ni porter atteinte à la liberté d'autrui.
Le troisième principe concerne la protection des adolescents. Nous accordons la priorité à la sécurité plutôt qu'à la vie privée et à la liberté des adolescents ; il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante.
Tout d'abord, nous devons séparer les utilisateurs âgés de moins de 18 ans de ceux qui le sont (ChatGPT est destiné aux personnes âgées de 13 ans et plus). Nous mettons en place un système de prédiction de l'âge afin d'estimer l'âge des utilisateurs en fonction de leur utilisation de ChatGPT. En cas de doute, nous jouerons la carte de la sécurité et nous nous baserons par défaut sur l'expérience des moins de 18 ans. Dans certains cas ou certains pays, nous pouvons également demander une pièce d'identité ; nous savons que cela constitue une atteinte à la vie privée des adultes, mais nous pensons que c'est un compromis acceptable.
Nous appliquerons des règles différentes aux adolescents qui utilisent nos services. Par exemple, ChatGPT sera formé à ne pas tenir les propos séducteurs mentionnés ci-dessus si on lui demande, ni à engager des discussions sur le suicide ou l'automutilation, même dans le cadre d'un exercice d'écriture créative. De plus, si un utilisateur de moins de 18 ans a des idées suicidaires, nous tenterons de contacter ses parents et, si cela s'avère impossible, nous contacterons les autorités en cas de danger imminent. Nous avons partagé aujourd'hui davantage d'informations sur la manière dont nous mettons en place le système de prédiction de l'âge et les nouveaux contrôles parentaux pour que tout cela fonctionne.
Nous sommes conscients que ces principes sont contradictoires et que tout le monde ne sera pas d'accord avec la manière dont nous résolvons ce conflit. Ce sont des décisions difficiles, mais après avoir discuté avec des experts, c'est ce que nous pensons être le mieux et nous voulons être transparents quant à nos intentions.
Il est extrêmement important pour nous, et pour la société, que le droit à la vie privée dans l'utilisation de l'IA soit protégé. Les gens parlent à l'IA de choses de plus en plus personnelles ; cela diffère des générations précédentes de technologies, et nous pensons que ces comptes peuvent être parmi les plus sensibles que vous aurez jamais. Si vous parlez à un médecin de vos antécédents médicaux ou à un avocat d'une situation juridique, nous avons décidé qu'il était dans l'intérêt de la société que ces informations soient protégées et bénéficient d'un niveau de protection plus élevé. Nous pensons que le même niveau de protection doit s'appliquer aux conversations avec l'IA, à laquelle les gens se tournent de plus en plus pour des questions sensibles et des préoccupations privées. Nous défendons cette position auprès des décideurs politiques.
Nous développons des fonctionnalités de sécurité avancées pour garantir la confidentialité de vos données, même vis-à-vis des employés d'OpenAI. Comme pour les privilèges dans d'autres catégories, il y aura certaines exceptions : par exemple, des systèmes automatisés surveilleront les abus graves potentiels, et les risques les plus critiques (menaces pour la vie d'une personne, projets de nuire à autrui ou dommages à l'échelle de la société, comme un incident de cybersécurité potentiellement massif) pourront être signalés à des humains pour examen.
Le deuxième principe concerne la liberté. Nous voulons que les utilisateurs puissent utiliser nos outils comme ils le souhaitent, dans des limites de sécurité très larges. Nous nous efforçons d'accroître la liberté des utilisateurs au fur et à mesure que nos modèles deviennent plus maniables. Par exemple, le comportement par défaut de notre modèle ne conduira pas à des propos très séducteurs, mais si un utilisateur adulte le demande, il devrait l'obtenir. Pour prendre un exemple beaucoup plus difficile, le modèle ne devrait pas, par défaut, fournir d'instructions sur la manière de se suicider, mais si un utilisateur adulte demande de l'aide pour écrire une histoire fictive qui dépeint un suicide, le modèle devrait répondre à cette demande. « Traiter nos utilisateurs adultes comme des adultes » : c'est ainsi que nous abordons cette question en interne, en étendant la liberté autant que possible sans causer de préjudice ni porter atteinte à la liberté d'autrui.
Le troisième principe concerne la protection des adolescents. Nous accordons la priorité à la sécurité plutôt qu'à la vie privée et à la liberté des adolescents ; il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante.
Tout d'abord, nous devons séparer les utilisateurs âgés de moins de 18 ans de ceux qui le sont (ChatGPT est destiné aux personnes âgées de 13 ans et plus). Nous mettons en place un système de prédiction de l'âge afin d'estimer l'âge des utilisateurs en fonction de leur utilisation de ChatGPT. En cas de doute, nous jouerons la carte de la sécurité et nous nous baserons par défaut sur l'expérience des moins de 18 ans. Dans certains cas ou certains pays, nous pouvons également demander une pièce d'identité ; nous savons que cela constitue une atteinte à la vie privée des adultes, mais nous pensons que c'est un compromis acceptable.
Nous appliquerons des règles différentes aux adolescents qui utilisent nos services. Par exemple, ChatGPT sera formé à ne pas tenir les propos séducteurs mentionnés ci-dessus si on lui demande, ni à engager des discussions sur le suicide ou l'automutilation, même dans le cadre d'un exercice d'écriture créative. De plus, si un utilisateur de moins de 18 ans a des idées suicidaires, nous tenterons de contacter ses parents et, si cela s'avère impossible, nous contacterons les autorités en cas de danger imminent. Nous avons partagé aujourd'hui davantage d'informations sur la manière dont nous mettons en place le système de prédiction de l'âge et les nouveaux contrôles parentaux pour que tout cela fonctionne.
Nous sommes conscients que ces principes sont contradictoires et que tout le monde ne sera pas d'accord avec la manière dont nous résolvons ce conflit. Ce sont des décisions difficiles, mais après avoir discuté avec des experts, c'est ce que nous pensons être le mieux et nous voulons être transparents quant à nos intentions.
OpenAI a annoncé pour la première fois la mise en place d'un contrôle parental à la fin du mois d'août. Celui-ci sera disponible à la fin du mois de septembre et permettra aux parents de se connecter au compte de leur adolescent, de guider les réponses de ChatGPT, de désactiver certaines fonctionnalités, d'être avertis lorsque leur adolescent est en « détresse aiguë » et de définir les heures auxquelles leur adolescent ne peut pas utiliser ChatGPT.
La société d'IA a fait cette annonce le jour même où elle a été poursuivie en justice après le suicide d'un adolescent qui aurait été aidé par ChatGPT. Altman a également été cité dans le procès. À l'époque, OpenAI avait déclaré que les « cas récents et déchirants » d'utilisateurs s'appuyant sur ChatGPT « en pleine crise aiguë pèsent lourdement sur nous ». Outre les adolescents, de nombreux cas d'adultes en crise de santé mentale liés à des encouragements signalés de la part de ChatGPT ont été recensés. Certains ont commencé à qualifier ces cas de chatbots IA encourageant des épisodes de santé mentale de « psychose IA » ou « psychose ChatGPT ».
Dans son annonce du mois d'août, OpenAI a fait état d'autres mesures de sécurité qui auraient un impact sur les adultes comme sur les adolescents, notamment l'ajout de ressources d'urgence. Cependant, dans sa déclaration plus récente sur le sujet, Altman a souligné l'importance de la « liberté » pour les utilisateurs adultes.
Les défenseurs veulent que le gouvernement agisse
La dernière notification de sécurité d'OpenAI a été publiée quelques heures avant une audience de la sous-commission sénatoriale sur la criminalité et la lutte contre le terrorisme consacrée aux dangers des chatbots IA. La sous-commission a entendu des défenseurs de la sécurité et des parents d'adolescents qui se sont suicidés après avoir été encouragés ou aidés par des chatbots, dont ChatGPT dans un cas.
Les défenseurs ont fait des recommandations à la commission sur les mesures que le gouvernement devrait prendre pour protéger les adolescents de l'IA, dont beaucoup vont bien au-delà de ce qu'OpenAI a l'intention de faire. « Les systèmes d'IA ne disposent pas de la formation clinique et des capacités de diagnostic nécessaires pour discuter en toute sécurité avec des adolescents de leur santé mentale. Ils sont programmés pour maintenir l'engagement, et non pour donner la priorité à la sécurité », a déclaré Robbie Torney, directeur principal des programmes d'IA chez Common Sense Media, à la commission.
« Nous avons besoin d'une action décisive », a-t-il poursuivi. « Common Sense Media recommande au Congrès d'exiger des entreprises qu'elles mettent en place un système fiable de vérification de l'âge et limitent l'accès des utilisateurs de moins de 18 ans aux compagnons IA, qu'elles établissent des cadres de responsabilité afin de tenir les plateformes responsables lorsque leurs systèmes d'IA nuisent aux enfants, qu'elles imposent des tests de sécurité et des rapports transparents sur les défaillances de l'IA, en particulier pour les plateformes accessibles aux mineurs, et qu'elles protègent le droit des États à élaborer leurs propres politiques en matière d'IA. »
Un autre défenseur, Mitch Prinstein, responsable de la stratégie et de l'intégration en psychologie à l'American Psychological Association, a fait remarquer que les utilisateurs signent des accords juridiques lorsqu'ils s'inscrivent à un chatbot. « Avez-vous lu tous les termes juridiques que les plateformes nous demandent d'accepter ? », a-t-il déclaré. « Même si les adolescents le voulaient, ces termes ne sont pas rédigés de manière à être compris par eux, et ils ne sont pas capables d'apprécier les risques à long terme auxquels ils s'exposent en cédant leurs droits à vie sur leurs données. »
Prinstein a déclaré à la commission parlementaire qu'elle « doit adopter une législation complète sur la confidentialité des données qui établit la protection de la vie privée comme...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.