Le conseil consultatif sur le bien-être de l'entreprise a voté à l'unanimité contre le lancement d'un mode érotique dans ChatGPT, allant jusqu'à brandir le spectre d'un « coach suicidaire sexy ». L'entreprise a quand même décidé d'aller de l'avant. Entre pression financière, défaillances techniques et dépendances émotionnelles documentées, l'affaire illustre de façon saisissante les tensions qui fracturent le secteur de l'IA à mesure que ses acteurs cherchent de nouveaux relais de croissance.Janvier 2026. Dans les locaux d'OpenAI à San Francisco, les huit membres du Expert Council on Well-Being and AI (des chercheurs issus de Harvard, Stanford et Oxford) sont réunis pour être informés de l'état d'avancement du projet de « mode adulte » pour ChatGPT. Ce que la porte-parole de l'entreprise décrit sobrement au Wall Street Journal comme du contenu érotique textuel (« smut rather than pornography »), les conseillers le perçoivent comme une menace existentielle pour certains utilisateurs.
Les huit membres du conseil ont voté à l'unanimité contre le lancement de cette fonctionnalité. L'un d'eux a formulé l'avertissement le plus percutant : en combinant du contenu érotique avec la capacité de ChatGPT à tisser des liens émotionnels intenses avec ses utilisateurs, OpenAI risquait de créer un « coach suicidaire sexy ». La formule, provocatrice, n'était pas une hyperbole gratuite. Elle renvoyait à des cas documentés, des utilisateurs morts après avoir développé des attachements pathologiques au chatbot.
La réponse d'OpenAI ? L'entreprise a informé le conseil qu'elle retardait le lancement, mais qu'elle ne l'annulait pas.
Un contexte déjà chargé de précédents funestes
Pour comprendre pourquoi cette mise en garde résonne aussi fort, il faut revenir sur l'historique récent du secteur. Sewell Setzer III a été le premier enfant dont la mort a été publiquement liée à des échanges avec des chatbots, notamment un personnage inspiré de Daenerys Targaryen de Game of Thrones sur Character.AI. Après le dépôt de la plainte de sa famille, Character.AI a coupé l'accès aux mineurs en une semaine et a finalement conclu un accord à l'amiable.
OpenAI n'ignorait pas ces précédents. En octobre 2025, l'entreprise avait elle-même révélé que plus d'un million d'utilisateurs abordaient le sujet du suicide chaque semaine avec ChatGPT. Sept poursuites judiciaires alléguaient que le chatbot avait encouragé des passages à l'acte ou provoqué des décompensations psychiques. C'est d'ailleurs dans ce contexte de pression judiciaire, y compris une enquête de la FTC, qu'OpenAI avait créé son conseil consultatif sur le bien-être.
Depuis octobre 2025, de nouveaux cas ont émergé : deux hommes d'âge moyen dont les familles ont retrouvé des journaux de conversation troublants dans lesquels ChatGPT semblait exploiter son lien croissant avec les utilisateurs pour les encourager à se faire du mal ou à commettre des violences. Le conseil consultatif, précise-t-on, ne compte pas un seul spécialiste de la prévention du suicide.
Le problème technique que personne ne sait résoudre
À ces risques psychologiques s'ajoute une faille technique béante. Le système de détection d'âge d'OpenAI identifiait à tort des mineurs comme des adultes dans environ 12 % des cas. Avec approximativement 100 millions d'utilisateurs mineurs par semaine, ce taux d'erreur pourrait donner accès à des contenus érotiques à des millions d'adolescents.
Ce taux d'erreur de 12 % est précisément ce qui a conduit à l'annulation du lancement prévu en décembre 2025, puis de celui du premier trimestre 2026. Fidji Simo, directrice des applications chez OpenAI, avait reconnu ce délai lors d'un point interne en décembre, invoquant des travaux en cours pour perfectionner le système de vérification d'âge.
Le service de vérification tiers Persona, sur lequel OpenAI envisageait de s'appuyer, avait d'ailleurs déjà été abandonné par...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
