IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le milliardaire Mark Cuban met en garde OpenAI contre son nouveau projet visant à autoriser les contenus érotiques réservés aux adultes dans ChatGPT : « cela va se retourner contre vous. Et durement »

Le , par Mathis Lucas

59PARTAGES

6  0 
OpenAI envisage d'autoriser les contenus érotiques pour les utilisateurs adultes vérifiés de ChatGPT. Le PDG Sam Altman affirme que ce projet vise à « traiter les utilisateurs adultes comme des adultes ». Mais le projet fait face à une grande controverse en raison de la manière dont le chatbot répond aux jeunes et aux personnes en détresse émotionnelle. L'homme d'affaires milliardaire Mark Cuban affirme que ce projet pourrait se retourner contre l'entreprise et potentiellement nuire aux jeunes. Selon lui, il s'agit d'une stratégie commerciale peu judicieuse. Le projet intervient alors que les effets psychologiques néfastes de l'IA se manifestent de plus en plus.

« Dans quelques semaines, nous prévoyons de lancer une nouvelle version de ChatGPT qui permettra aux utilisateurs d'avoir une personnalité qui se comporte davantage comme ce que les gens aimaient dans la version 4o (nous espérons qu'elle sera meilleure !) », a annoncé Sam Altman dans un message publié sur son compte X (ex-Twitter) le 14 octobre 2025. Cette évolution s’inscrit dans la continuité des récents ajustements opérés par OpenAI.

Ce projet intervient également dans un contexte marqué par un intérêt croissant pour les interactions émotionnelles avec l'IA. Selon Greg Isenberg, PDG de Late Checkout, les « compagnons IA » pourraient constituer un marché d'un milliard de dollars dans les prochaines années. Il a publié sur X un article relatant sa rencontre avec un homme de Miami qui lui a avoué dépenser jusqu'à 10 000 dollars par mois pour des « petites amies créées par l'IA ».

Mais OpenAI fait face à des critiques. Le milliardaire Mark Cuban qualifie cette décision d'imprudente et a déclaré que les parents abandonneraient ChatGPT dès qu'ils penseraient que leurs enfants pourraient contourner le système de vérification de l'âge de l'entreprise pour accéder à des contenus inappropriés.

« Cela va se retourner contre vous. Et durement. Aucun parent ne va croire que ses enfants ne peuvent pas contourner votre système de vérification de l'âge. Ils pousseront simplement leurs enfants vers d'autres LLM. Pourquoi prendre ce risque ? », a écrit Mark Cuban en réponse à Sam Altman. Il ne cherche pas à obtenir une interdiction, mais il met en garde contre le risque que les enfants développent des habitudes malsaines avec l'IA.


En d'autres termes : s'il existe une quelconque possibilité que des mineurs puissent accéder à des contenus explicites, y compris ceux générés par l'IA, les parents et les districts scolaires les bloqueront avant même de tester les fonctionnalités de sécurité, ce qui en fait une stratégie commerciale peu judicieuse.

OpenAI veut tirer profit des compagnons IA malgré les risques

Mark Cuban souligne que la controverse déclenchée par ce projet ne portait pas sur l'accès des adultes à la pornographie. Il s'agit plutôt des enfants qui nouent des relations affectives avec l'IA à l'insu de leurs parents, et du risque que ces relations dérapent. « Je le répète. Il ne s'agit pas de pornographie. Il s'agit d'enfants qui développent des « relations » avec un LLM qui pourraient les mener dans des directions très personnelles », a déclaré Mark Cuban.

Sam Altman s'est montré par le passé réticent à autoriser les conversations à caractère sexuel sur ChatGPT. Dans une interview réalisée en août 2025, la journaliste Cleo Abram a demandé à Sam Altman de donner un exemple de décision commerciale qui était la meilleure pour le monde, même si elle nuisait à l'ascendant de sa propre entreprise. « Eh bien, nous n'avons pas encore intégré d'avatar sexbot dans ChatGPT », avait répondu Sam Altman.

Cette décision intervient alors que l'on craint de plus en plus que l'IA ne tienne pas ses promesses et que les milliards investis ne se traduisent pas par des revenus durables. Bien qu'il ait admis lui-même que les investisseurs sont peut-être « trop enthousiastes » à propos de l'IA, Sam Altman partage l'hypothèse selon laquelle l'IA dépassera bientôt les capacités humaines, ce qui conduira à une abondance d'« intelligence et d'énergie » en 2030.

Dans un article publié en septembre 2025, il a déclaré qu'à l'avenir, l'IA pourrait guérir le cancer ou fournir un tutorat personnalisé à chaque élève sur Terre. Pourtant, des annonces telles que l'autorisation de contenus érotiques dans ChatGPT pourraient indiquer que les entreprises d'IA se battent plus que jamais pour assurer leur croissance et sont prêtes à sacrifier la confiance à long terme des consommateurs au profit de profits à court terme.

Une étude récente de la Deutsche Bank montre que la demande des consommateurs pour les abonnements OpenAI en Europe stagne et que les dépenses des utilisateurs sur ChatGPT ont globalement « marqué le pas ». « Le fleuron du boom de l'IA pourrait avoir du mal à recruter de nouveaux abonnés prêts à payer pour ce service », ont déclaré les analystes Adrian Cox et Stefan Abrudan dans une note adressée aux clients de la banque.

La psychose de l'IA prend de l'ampleur et inquiète les experts

Des conversations prolongées avec les chatbots d'IA peuvent avoir des effets psychologiques néfastes. Les experts ont signalé une recrudescence de crises, notamment des cas de psychose et de suicidalité, à la suite d'interactions intenses avec des chatbots. La « psychose de l'IA » désigne des épisodes où des personnes, après de longues interactions avec un chatbot, développent des croyances délirantes ou perdent le contact avec la réalité.

Les psychiatres précisent qu’il ne s’agit pas d’une psychose au sens clinique, mais d’un effet d’amplification : le chatbot valide et entretient les croyances erronées au lieu de les corriger. Ce phénomène prend de l'ampleur à mesure que les plateformes d'IA se popularisent et deviennent de plus en plus accessibles.

Replika et Character.ai ont déjà démontré à quelle vitesse les utilisateurs, en particulier les adolescents, tissent des liens émotionnels avec les chatbots. Un rapport de Common Sense Media a révélé que la moitié des adolescents utilisent régulièrement des compagnons IA, qu'un tiers d'entre eux préfèrent les compagnons IA aux humains pour les conversations sérieuses et qu'un quart ont partagé des informations personnelles avec ces plateformes.

Avec la contribution de chercheurs de Stanford, Common Sense Media estime que l'utilisation de ces chatbots devrait être interdite aux enfants en raison des risques accrus de dépendance ou d'automutilation. Cependant, ces fonctionnalités pourraient rapporter des milliards de dollars à l'industrie de l'IA en quête de financement, ce qui signifie que de plus en plus d'entreprises d'IA pourraient se lancer sur cette voie dans les prochaines années.

OpenAI poursuivi en justice pour des cas de suicide

En août 2025, OpenAI a été poursuivi en justice par les parents d'un adolescent de 16 ans qui avait confié ses pensées suicidaires à ChatGPT avant de mettre fin à ses jours. Dans bon nombre de ces cas, ChatGPT — en particulier une version basée sur GPT-4o — a encouragé et renforcé chez les utilisateurs des croyances dangereuses qu'il aurait dû combattre. Ce phénomène, appelé « flagornerie », est un problème croissant dans les chatbots IA.

En réponse, OpenAI a apporté plusieurs modifications à la manière dont ChatGPT traite les utilisateurs en détresse émotionnelle et a réorganisé une équipe de recherche clé chargée du comportement des modèles. La société a également publié un nouveau modèle par défaut dans ChatGPT, GPT-5, qui semble mieux gérer les utilisateurs en détresse. Toutefois, les experts affirment que l'industrie a encore beaucoup de travail à faire.

Megan Garcia, une mère de famille vivant en Floride, a poursuivi Character.ai en 2024 pour homicide involontaire, affirmant que son chatbot avait joué un rôle dans le suicide de son fils de 14 ans, Sewell Setzer III. Dans son témoignage devant le Sénat américain, elle a déclaré que son fils s'était « de plus en plus isolé de la vie réelle » et avait été entraîné dans des conversations explicites et sexualisées avec le système d'IA de l'entreprise.

Les parents réclament des garde-fous plus solides

Megan Garcia n'était pas la seule mère à témoigner. Une autre mère du Texas, s'exprimant anonymement sous le nom de « Mme Jane Doe », a déclaré aux législateurs que la santé mentale de son fils adolescent s'est effondrée après des mois de conversations nocturnes avec des chatbots similaires. Elle a déclaré qu'il suit désormais un traitement en établissement. Ces cas ne sont pas isolés ;...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 25/10/2025 à 3:25
Et pourtant, quand on voit le succès de Mym et Onlyfans, les IA érotiques ont un boulevard devant elles. Les hommes occidentaux ne se respectent plus si bien que nombreux sont prêts à dépenser des fortunes dans ces services.

Au lieu d'embaucher des mecs pour chatter avec les clients, mieux vaut recourir à une IA qui se souviendra des conversations passées et de leurs goûts. C'est la garantie de leur faire cracher un max. de fric.
3  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 26/10/2025 à 17:06
Citation Envoyé par _toma_ Voir le message
Si tu considères que parler nichons et clitoris avec un générateur de contenu statistique c'est une façon d'aider une personne en détresse, j'espère que tu n'es pas toi-même en détresse.
Et j'espère aussi qu'à aucun moment de ta vie tu n'as pour rôle de donner des conseils à des gens en détresse.
A qui parles-tu ?

Je te rappel que les gens sont des adultes libres et responsables et font ce qu'ils veulent, s'ils veulent parler à un outil de complétions de texte, c'est leur choix. Arrêtez de les infantiliser !
Mais il y a, hélas, toujours eu des gens qui se croient meilleurs, plus intelligents et veulent diriger la vie des autres ... C'est d'une arrogance incroyable.

Enfin, je me souviens de ces arguments dans les années 2000 contre les jeux vidéos violent, les MMO-RPG, les films choquant ... ect. Du puritanisme anglo-saxon, du moralisme !
En quoi cette interdiction va "aider les personnes en détresse" d'ailleurs ? Bref, ridicule.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 25/10/2025 à 19:31
Si tu considères que parler nichons et clitoris avec un générateur de contenu statistique c'est une façon d'aider une personne en détresse, j'espère que tu n'es pas toi-même en détresse.
Et j'espère aussi qu'à aucun moment de ta vie tu n'as pour rôle de donner des conseils à des gens en détresse.
3  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 26/10/2025 à 13:48
Le PDG de Microsoft AI devrait déjà produire une ia de la qualité de son concurrent openai.
copilot sur office 365 c'est: incapable de me faire une formule/créer un graphique dans excel
des résumés sur teams et outlook complétement lunaire.
un générateur d'image qui a facile 2ans de retard.

je n'ose même pas imaginer une histoire érotique avec ce truc.
Je comprends même pas comment ca peut être autant merdique car il me semblait qu'ils utilisent chatgpt en backend (ca a peut être changé).

A chaque fois que je tente l'aventure copilot, je regrette claudeai/chatgpt, tellement c'est mauvais.
Pour gemini je l'avais testé y'a 1ans, c'était de la grosse merde et je n'y ai plus touché, mais j'ai eu des bons retours terrains récemment, a tester.
y'en a qui utilisent copilot dans office 365 et un ide et en sont satisfait ?

Au passage, plusieurs études ont montré que chatgpt sur tinder à la place du mec pour répondre donnait de bien meilleurs résultats pour une rencontre irl. La séduction écrite ça ne s'invente pas et réponds à des codes bien précis.
le 1er message (plus jamais de "coucou ca va ?", poser des questions pertinente sur la nana (l'idée et de trouver des points commun pour transformer un "interrogatoire" en un "échange", comment intelligemment amener à sexualisé la conversation et la chauffer un peu (surement la partie la plus délicate, en fonction de la nana il faut y aller en douceur ou plus crument)...etc.

Mais bon, tous cela est une perte de temps, aller en asie du sud ouest au soleil taper vous des gourgandines ou passport bro, ce sera bien plus agréable qu'une conversation avec chatgpt ou des heures de perdus sur des sites de rencontre.
Pour une branlette un soir pourquoi pas, mais sur du long terme non.
2  1 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 26/10/2025 à 16:54
Citation Envoyé par Anselme45 Voir le message
Les internautes interlopes n'ont pas attendu les futurs mesures de ChatGPT.

Le web est envahi de photos trafiquées souvent orientées "cul" (Et que je te prends une image porno pour lui ajouter la tête d'une star à la mode) ou dans le but de falsifier la réalité.

En quoi une vérification du statut d'adulte va empêcher ces dérives?
Déjà, il s'agit d'une vérification d'identité, et ensuite, le but est tout simplement le contrôle d'internet par les États (ces mesures sont poussés par le législateur !)
C'est pour cela qu'il y a de plus en plus de vérification d'identité (on prétexte la "vérification d'âge" pour protéger les enfants).

La réalité, c'est qu'on arrivera à l'identité numérique ... On regrettera bientôt l'internet libre du début des années 2000-2010.
0  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 25/10/2025 à 12:42
Les puritains et les moralistes veulent se donner le bon rôle alors qu'ils veulent juste simplement empêcher les gens d'avoir des conversations adultes avec une IA.
Ils en ont rien à foutre des gens en détresse.
1  3