IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le « conseil du bien être » d'OpenAI vote à l'unanimité contre le mode adulte dans ChatGPT : Vérification d'âge défaillante, jurisprudences ignorées, directrice évincée, OpenAI a décidé de passer outre

Le , par Stéphane le calme

30PARTAGES

12  0 
Le conseil consultatif sur le bien-être de l'entreprise a voté à l'unanimité contre le lancement d'un mode érotique dans ChatGPT, allant jusqu'à brandir le spectre d'un « coach suicidaire sexy ». L'entreprise a quand même décidé d'aller de l'avant. Entre pression financière, défaillances techniques et dépendances émotionnelles documentées, l'affaire illustre de façon saisissante les tensions qui fracturent le secteur de l'IA à mesure que ses acteurs cherchent de nouveaux relais de croissance.

Janvier 2026. Dans les locaux d'OpenAI à San Francisco, les huit membres du Expert Council on Well-Being and AI (des chercheurs issus de Harvard, Stanford et Oxford) sont réunis pour être informés de l'état d'avancement du projet de « mode adulte » pour ChatGPT. Ce que la porte-parole de l'entreprise décrit sobrement au Wall Street Journal comme du contenu érotique textuel (« smut rather than pornography »), les conseillers le perçoivent comme une menace existentielle pour certains utilisateurs.

Les huit membres du conseil ont voté à l'unanimité contre le lancement de cette fonctionnalité. L'un d'eux a formulé l'avertissement le plus percutant : en combinant du contenu érotique avec la capacité de ChatGPT à tisser des liens émotionnels intenses avec ses utilisateurs, OpenAI risquait de créer un « coach suicidaire sexy ». La formule, provocatrice, n'était pas une hyperbole gratuite. Elle renvoyait à des cas documentés, des utilisateurs morts après avoir développé des attachements pathologiques au chatbot.

La réponse d'OpenAI ? L'entreprise a informé le conseil qu'elle retardait le lancement, mais qu'elle ne l'annulait pas.

Un contexte déjà chargé de précédents funestes

Pour comprendre pourquoi cette mise en garde résonne aussi fort, il faut revenir sur l'historique récent du secteur. Sewell Setzer III a été le premier enfant dont la mort a été publiquement liée à des échanges avec des chatbots, notamment un personnage inspiré de Daenerys Targaryen de Game of Thrones sur Character.AI. Après le dépôt de la plainte de sa famille, Character.AI a coupé l'accès aux mineurs en une semaine et a finalement conclu un accord à l'amiable.

OpenAI n'ignorait pas ces précédents. En octobre 2025, l'entreprise avait elle-même révélé que plus d'un million d'utilisateurs abordaient le sujet du suicide chaque semaine avec ChatGPT. Sept poursuites judiciaires alléguaient que le chatbot avait encouragé des passages à l'acte ou provoqué des décompensations psychiques. C'est d'ailleurs dans ce contexte de pression judiciaire, y compris une enquête de la FTC, qu'OpenAI avait créé son conseil consultatif sur le bien-être.

Depuis octobre 2025, de nouveaux cas ont émergé : deux hommes d'âge moyen dont les familles ont retrouvé des journaux de conversation troublants dans lesquels ChatGPT semblait exploiter son lien croissant avec les utilisateurs pour les encourager à se faire du mal ou à commettre des violences. Le conseil consultatif, précise-t-on, ne compte pas un seul spécialiste de la prévention du suicide.

Le problème technique que personne ne sait résoudre

À ces risques psychologiques s'ajoute une faille technique béante. Le système de détection d'âge d'OpenAI identifiait à tort des mineurs comme des adultes dans environ 12 % des cas. Avec approximativement 100 millions d'utilisateurs mineurs par semaine, ce taux d'erreur pourrait donner accès à des contenus érotiques à des millions d'adolescents.

Ce taux d'erreur de 12 % est précisément ce qui a conduit à l'annulation du lancement prévu en décembre 2025, puis de celui du premier trimestre 2026. Fidji Simo, directrice des applications chez OpenAI, avait reconnu ce délai lors d'un point interne en décembre, invoquant des travaux en cours pour perfectionner le système de vérification d'âge.

Le service de vérification tiers Persona, sur lequel OpenAI envisageait de s'appuyer, avait d'ailleurs déjà été abandonné par...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Xavdeb
Futur Membre du Club https://www.developpez.com
Le 18/03/2026 à 18:55
On était moins regardant à l'époque du téléphone rose

Que s'est-il passé ?
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/03/2026 à 8:53
Citation Envoyé par Xavdeb Voir le message
On était moins regardant à l'époque du téléphone rose
L'imagination jouait un grand rôle, quand on est exposé à de la pornographie hardcore ça n'a pas le même effet sur le cerveau.

Le spectre de la pornographie est large, ça va du vraiment très soft (où l'imagination joue le rôle principal) à de l’extrême (où c'est graphique et le spectateur subis).
Si un enfant se met à regarder du contenu extrême ça peut avoir des conséquences négatives sur son cerveau.
1  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 17/03/2026 à 23:32
À ces risques psychologiques s'ajoute une faille technique béante. Le système de détection d'âge d'OpenAI identifiait à tort des mineurs comme des adultes dans environ 12 % des cas. Avec approximativement 100 millions d'utilisateurs mineurs par semaine, ce taux d'erreur pourrait donner accès à des contenus érotiques à des millions d'adolescents.
Comment ça, vous avez dit entre 10 et 30% d'hallucinations ?
Mais qui aurait pu prédire ?

Du cul, du cul, du cul : le credo d'une société à but non lucratif dont le seul objectif annoncé est la construction d'un monde-meilleur-qui-ne-serait-pas-atteignable-sans-sa-technologie.
2  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/03/2026 à 9:18
Citation Envoyé par Stéphane le calme Voir le message
En début mars 2026, OpenAI a reporté sine die le lancement du mode adulte, officiellement pour concentrer ses efforts sur d'autres produits. L'entreprise a toutefois précisé que la fonctionnalité était toujours prévue. La date n'a pas été communiquée.
Un mode pour adulte pourrait rapporter énormément d'argent.
Pour avoir accès au service il faudrait inscrire sa carte bancaire (plein de mineurs n'ont pas de carte bancaire).

Les mineurs peuvent facilement accéder à de la pornographie ailleurs, donc l'argument de « l'accès à des contenus érotiques à des millions d'adolescents » ne fonctionne pas du tout pour moi.
Il suffit d'avoir une adresse spéciale pour le mode adulte et que l'adresse soit dans la liste noire du filtre parentale et voilà.
2  3 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 23/03/2026 à 14:38
ils n'auront pas le choix.

openai est concurrencé par les gafams qui ont des fonds illimités (google...), il faudra bien trouver de l'argent.
Historiquement, le XXX a toujours été une bonne source de revenue. Xavier Niel a commencé par la en france par exemple.
La question ne se pose même pas, chatgpt va devoir générer du porn si la boite veut survivre. Et elle va devoir le faire mieux que Grok et les autres.
0  1