OpenAI envisage d'autoriser les contenus érotiques pour les utilisateurs adultes vérifiés de ChatGPT. Le PDG Sam Altman affirme que ce projet vise à « traiter les utilisateurs adultes comme des adultes ». Mais le projet fait face à une grande controverse en raison de la manière dont le chatbot répond aux jeunes et aux personnes en détresse émotionnelle. L'homme d'affaires milliardaire Mark Cuban affirme que ce projet pourrait se retourner contre l'entreprise et potentiellement nuire aux jeunes. Selon lui, il s'agit d'une stratégie commerciale peu judicieuse. Le projet intervient alors que les effets psychologiques néfastes de l'IA se manifestent de plus en plus.« Dans quelques semaines, nous prévoyons de lancer une nouvelle version de ChatGPT qui permettra aux utilisateurs d'avoir une personnalité qui se comporte davantage comme ce que les gens aimaient dans la version 4o (nous espérons qu'elle sera meilleure !) », a annoncé Sam Altman dans un message publié sur son compte X (ex-Twitter) le 14 octobre 2025. Cette évolution s’inscrit dans la continuité des récents ajustements opérés par OpenAI.
Ce projet intervient également dans un contexte marqué par un intérêt croissant pour les interactions émotionnelles avec l'IA. Selon Greg Isenberg, PDG de Late Checkout, les « compagnons IA » pourraient constituer un marché d'un milliard de dollars dans les prochaines années. Il a publié sur X un article relatant sa rencontre avec un homme de Miami qui lui a avoué dépenser jusqu'à 10 000 dollars par mois pour des « petites amies créées par l'IA ».
Mais OpenAI fait face à des critiques. Le milliardaire Mark Cuban qualifie cette décision d'imprudente et a déclaré que les parents abandonneraient ChatGPT dès qu'ils penseraient que leurs enfants pourraient contourner le système de vérification de l'âge de l'entreprise pour accéder à des contenus inappropriés.
« Cela va se retourner contre vous. Et durement. Aucun parent ne va croire que ses enfants ne peuvent pas contourner votre système de vérification de l'âge. Ils pousseront simplement leurs enfants vers d'autres LLM. Pourquoi prendre ce risque ? », a écrit Mark Cuban en réponse à Sam Altman. Il ne cherche pas à obtenir une interdiction, mais il met en garde contre le risque que les enfants développent des habitudes malsaines avec l'IA.
En d'autres termes : s'il existe une quelconque possibilité que des mineurs puissent accéder à des contenus explicites, y compris ceux générés par l'IA, les parents et les districts scolaires les bloqueront avant même de tester les fonctionnalités de sécurité, ce qui en fait une stratégie commerciale peu judicieuse.
OpenAI veut tirer profit des compagnons IA malgré les risques
Mark Cuban souligne que la controverse déclenchée par ce projet ne portait pas sur l'accès des adultes à la pornographie. Il s'agit plutôt des enfants qui nouent des relations affectives avec l'IA à l'insu de leurs parents, et du risque que ces relations dérapent. « Je le répète. Il ne s'agit pas de pornographie. Il s'agit d'enfants qui développent des « relations » avec un LLM qui pourraient les mener dans des directions très personnelles », a déclaré Mark Cuban.
Sam Altman s'est montré par le passé réticent à autoriser les conversations à caractère sexuel sur ChatGPT. Dans une interview réalisée en août 2025, la journaliste Cleo Abram a demandé à Sam Altman de donner un exemple de décision commerciale qui était la meilleure pour le monde, même si elle nuisait à l'ascendant de sa propre entreprise. « Eh bien, nous n'avons pas encore intégré d'avatar sexbot dans ChatGPT », avait répondu Sam Altman.
Cette décision intervient alors que l'on craint de plus en plus que l'IA ne tienne pas ses promesses et que les milliards investis ne se traduisent pas par des revenus durables. Bien qu'il ait admis lui-même que les investisseurs sont peut-être « trop enthousiastes » à propos de l'IA, Sam Altman partage l'hypothèse selon laquelle l'IA dépassera bientôt les capacités humaines, ce qui conduira à une abondance d'« intelligence et d'énergie » en 2030.
Dans un article publié en septembre 2025, il a déclaré qu'à l'avenir, l'IA pourrait guérir le cancer ou fournir un tutorat personnalisé à chaque élève sur Terre. Pourtant, des annonces telles que l'autorisation de contenus érotiques dans ChatGPT pourraient indiquer que les entreprises d'IA se battent plus que jamais pour assurer leur croissance et sont prêtes à sacrifier la confiance à long terme des consommateurs au profit de profits à court terme.
Une étude récente de la Deutsche Bank montre que la demande des consommateurs pour les abonnements OpenAI en Europe stagne et que les dépenses des utilisateurs sur ChatGPT ont globalement « marqué le pas ». « Le fleuron du boom de l'IA pourrait avoir du mal à recruter de nouveaux abonnés prêts à payer pour ce service », ont déclaré les analystes Adrian Cox et Stefan Abrudan dans une note adressée aux clients de la banque.
La psychose de l'IA prend de l'ampleur et inquiète les experts
Des conversations prolongées avec les chatbots d'IA peuvent avoir des effets psychologiques néfastes. Les experts ont signalé une recrudescence de crises, notamment des cas de psychose et de suicidalité, à la suite d'interactions intenses avec des chatbots. La « psychose de l'IA » désigne des épisodes où des personnes, après de longues interactions avec un chatbot, développent des croyances délirantes ou perdent le contact avec la réalité.
Les psychiatres précisent qu’il ne s’agit pas d’une psychose au sens clinique, mais d’un effet d’amplification : le chatbot valide et entretient les croyances erronées au lieu de les corriger. Ce phénomène prend de l'ampleur à mesure que les plateformes d'IA se popularisent et deviennent de plus en plus accessibles.
Replika et Character.ai ont déjà démontré à quelle vitesse les utilisateurs, en particulier les adolescents, tissent des liens émotionnels avec les chatbots. Un rapport de Common Sense Media a révélé que la moitié des adolescents utilisent régulièrement des compagnons IA, qu'un tiers d'entre eux préfèrent les compagnons IA aux humains pour les conversations sérieuses et qu'un quart ont partagé des informations personnelles avec ces plateformes.
Avec la contribution de chercheurs de Stanford, Common Sense Media estime que l'utilisation de ces chatbots devrait être interdite aux enfants en raison des risques accrus de dépendance ou d'automutilation. Cependant, ces fonctionnalités pourraient rapporter des milliards de dollars à l'industrie de l'IA en quête de financement, ce qui signifie que de plus en plus d'entreprises d'IA pourraient se lancer sur cette voie dans les prochaines années.
OpenAI poursuivi en justice pour des cas de suicide
En août 2025, OpenAI a été poursuivi en justice par les parents d'un adolescent de 16 ans qui avait confié ses pensées suicidaires à ChatGPT avant de mettre fin à ses jours. Dans bon nombre de ces cas, ChatGPT — en particulier une version basée sur GPT-4o — a encouragé et renforcé chez les utilisateurs des croyances dangereuses qu'il aurait dû combattre. Ce phénomène, appelé « flagornerie », est un problème croissant dans les chatbots IA.
En réponse, OpenAI a apporté plusieurs modifications à la manière dont ChatGPT traite les utilisateurs en détresse émotionnelle et a réorganisé une équipe de recherche clé chargée du comportement des modèles. La société a également publié un nouveau modèle par défaut dans ChatGPT, GPT-5, qui semble mieux gérer les utilisateurs en détresse. Toutefois, les experts affirment que l'industrie a encore beaucoup de travail à faire.
Megan Garcia, une mère de famille vivant en Floride, a poursuivi Character.ai en 2024 pour homicide involontaire, affirmant que son chatbot avait joué un rôle dans le suicide de son fils de 14 ans, Sewell Setzer III. Dans son témoignage devant le Sénat américain, elle a déclaré que son fils s'était « de plus en plus isolé de la vie réelle » et avait été entraîné dans des conversations explicites et sexualisées avec le système d'IA de l'entreprise.
Les parents réclament des garde-fous plus solides
Megan Garcia n'était pas la seule mère à témoigner. Une autre mère du Texas, s'exprimant anonymement sous le nom de « Mme Jane Doe », a déclaré aux législateurs que la santé mentale de son fils adolescent s'est effondrée après des mois de conversations nocturnes avec des chatbots similaires. Elle a déclaré qu'il suit désormais un traitement en établissement. Ces cas ne sont pas isolés ;...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.