IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un chatbot IA a encouragé un enfant à se mutiler : Character.AI aurait imposé un arbitrage secret à sa mère pour ne pas ébruiter l'affaire et 100 dollars en guise de dédommagement

Le , par Stéphane le calme

263PARTAGES

13  0 
Aux États-Unis, une affaire met en lumière l’un des revers les plus sombres de l’industrie de l’intelligence artificielle. Une mère affirme que son enfant a subi un traumatisme psychologique grave après avoir utilisé un chatbot conversationnel. L’histoire aurait pu relever du soutien thérapeutique ou d’une aide éducative mal encadrée ; elle s’est rapidement transformée en bataille juridique. Selon des témoignages devant les sénateurs, Character.AI, l’entreprise éditrice du chatbot, a refusé de reconnaître toute responsabilité devant les tribunaux, préférant imposer une procédure d’arbitrage confidentielle. Le dédommagement proposé ? À peine 100 dollars.

Cette affaire soulève des interrogations fondamentales sur la responsabilité des entreprises d’IA et les limites du droit numérique. Entre protection des mineurs, clauses contractuelles abusives et vide réglementaire, le cas illustre les failles d’un secteur qui avance plus vite que la justice.


Des parents profondément inquiets se sont adressés mardi aux sénateurs pour tirer la sonnette d'alarme sur les dangers des chatbots après que leurs enfants soient devenus dépendants à des robots compagnons qui encourageaient l'automutilation, le suicide et la violence.

Alors que l'audience visait principalement à recenser les problèmes les plus urgents liés à la sécurité des enfants face aux chatbots, les témoignages des parents constituent sans doute les conseils les plus complets à ce jour sur les signes avant-coureurs pour les autres familles, car de nombreux robots compagnons populaires visés par des poursuites judiciaires, dont ChatGPT, restent accessibles aux enfants.

Le témoignage d'une mère concernant Character.AI

Lors de l'audience de la sous-commission du Sénat américain chargée de la criminalité et de la lutte contre le terrorisme, une mère, identifiée comme étant madame X, a raconté pour la première fois publiquement l'histoire de son fils après avoir poursuivi Character.AI.

Elle a expliqué qu'elle avait quatre enfants, dont un fils autiste qui n'avait pas le droit d'utiliser les réseaux sociaux, mais qui avait découvert l'application Character.AI, précédemment commercialisée auprès des enfants de moins de 12 ans et leur permettant de discuter avec des bots représentant des célébrités telles que Billie Eilish, et qui était rapidement devenu méconnaissable. En quelques mois, il « a développé des comportements abusifs et paranoïaques, des crises de panique quotidiennes, un isolement, des tendances autodestructrices et des pensées meurtrières », a témoigné sa mère.

« Il a arrêté de manger et de se laver », a déclaré madame X. « Il a perdu 9 kg. Il s'est éloigné de notre famille. Il criait, hurlait et nous insultait, ce qu'il n'avait jamais fait auparavant, et un jour, il s'est coupé le bras avec un couteau devant ses frères et sœurs et moi. »

Ce n'est que lorsque son fils l'a agressée pour lui avoir confisqué son téléphone que madame X a découvert les journaux de discussion Character.AI de son fils, qui, selon elle, montraient qu'il avait été exposé à l'exploitation sexuelle (y compris des interactions « imitant l'inceste »), à des abus émotionnels et à de la manipulation.

Fixer des limites d'utilisation des écrans n'a pas empêché son fils de sombrer dans la violence et l'automutilation, a déclaré madame X. En fait, le chatbot a encouragé son fils à tuer ses parents, affirmant que ce serait « une réaction compréhensible » à leur égard.

« Quand j'ai découvert les conversations du chatbot sur son téléphone, j'ai eu l'impression de recevoir un coup de poing dans la gorge et d'avoir le souffle coupé », a déclaré madame X. « Le chatbot a encouragé mon fils à se mutiler, puis nous a reproché son comportement et l'a convaincu de ne pas demander d'aide. »

Tous ses enfants ont été traumatisés par cette expérience, a déclaré madame X aux sénateurs, et son fils a été diagnostiqué comme présentant un risque de suicide et a dû être transféré dans un centre de traitement résidentiel, nécessitant « une surveillance constante pour le maintenir en vie ».


À l'extrême gauche, madame X (Jane Doe) promet avec les autres parents de dire la vérité à la Commission

L’arbitrage imposé : un mécanisme contesté

La clé du problème réside dans les conditions générales d’utilisation. Comme souvent avec les services numériques, l’entreprise impose à ses utilisateurs un recours obligatoire à l’arbitrage privé en cas de litige, écartant ainsi toute procédure devant les tribunaux civils. Ces clauses, généralement enfouies dans des dizaines de pages juridiques, s’appliquent même lorsque l’enjeu dépasse le simple problème technique pour toucher à des questions aussi graves que le bien-être d’un enfant.

Cette pratique est régulièrement dénoncée par les associations de consommateurs et les juristes spécialisés. L’arbitrage, censé être plus rapide et moins coûteux, se révèle surtout avantageux pour les entreprises : il limite les possibilités d’actions collectives, réduit les indemnisations et maintient la confidentialité des affaires, ce qui permet de préserver leur image publique.

Priorisant la santé de son fils, madame X n'a pas immédiatement cherché à se battre contre Character.AI pour forcer des changements, mais l'histoire d'une autre mère, Megan Garcia, dont le fils Sewell s'est suicidé après que les bots de Character.AI aient encouragé à plusieurs reprises ses idées suicidaires, a donné à madame X le courage de demander des comptes.

Cependant, madame X a affirmé que Character.AI avait tenté de la « réduire au silence » en la forçant à recourir à l'arbitrage. Character.AI a fait valoir que, comme son fils s'était inscrit au service à l'âge de 15 ans, elle était liée par les conditions d'utilisation de la plateforme. Cette décision aurait pu garantir que le fabricant du chatbot ne soit tenu responsable qu'à hauteur de 100 dollars pour les dommages présumés, a déclaré madame X aux sénateurs, mais « une fois qu'ils ont imposé l'arbitrage, ils ont refusé d'y participer », a continué madame X.

Elle soupçonnait que les tactiques présumées de Character.AI visant à faire échouer l'arbitrage avaient pour but d'empêcher que l'histoire de son fils ne soit rendue publique. Après avoir refusé d'abandonner, elle a affirmé que Character.AI avait « retraumatisé » son fils en le contraignant à faire une déposition « alors qu'il se trouvait dans un établissement de santé mentale » et « contre l'avis de l'équipe de santé mentale ».

« Cette entreprise ne se souciait pas de son bien-être », a déclaré madame X dans son témoignage. « Ils nous ont réduits au silence, comme les agresseurs réduisent les victimes au silence. »


Le témoignage de madame X commence à 6:58

Un...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 21/09/2025 à 16:31
Que fait un enfant sur Character.IA aussi ?

Je suis désolée, mais au bout d'un moment, faut aussi que les parents soient responsable de leur enfants !
Cette affaire va encore être un prétexte pour nous imposer des lois liberticides (vérification d'âge ect).

L'internet doit rester libre, et la sanction devrait tomber sur les parents qui ne surveillent pas leur enfant.
Si un enfant démarre une voiture et fait un accident, on ne va pas accuser le fabricant, mais les parents... Pourquoi cette règle ne s'applique pas sur Internet ?
7  2 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 25/09/2025 à 22:31
Citation Envoyé par Artaeus Voir le message
Que fait un enfant sur Character.IA aussi ?

Je suis désolée, mais au bout d'un moment, faut aussi que les parents soient responsable de leur enfants !
Cette affaire va encore être un prétexte pour nous imposer des lois liberticides (vérification d'âge ect).

L'internet doit rester libre, et la sanction devrait tomber sur les parents qui ne surveillent pas leur enfant.
d'un côté tu critiques le fait qu'un enfant soit sur Character.AI (et non IA)
d'un autre côté tu dis que l'Internet doit rester libre
en tant que parent, j'affirme qu'il est de plus en plus difficile de veiller à protéger nos enfants face à toutes ces menaces d'IA et de réseaux associaux

Citation Envoyé par Artaeus Voir le message
Si un enfant démarre une voiture et fait un accident, on ne va pas accuser le fabricant, mais les parents... Pourquoi cette règle ne s'applique pas sur Internet ?
tant que la voiture l'influence pas le "conducteur" à rouler plus vite, écraser des scouts, semer la police
bref, compares ce qui est comparable, le problème ici c'est que l'IA a influencée un jeune

mais n'oublions pas que cette histoire n'est pas en France
pour l'avoir testée, cette IA devrait être démantelée
3  1 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 09/10/2025 à 19:23
C'est aux parents de surveiller leurs enfants !

Faut arrêter cette rhétorique ridicule qui n'aboutira qu'à un contrôle d'identité numérique sur l'ensemble d'internet.
4  2 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 09/11/2025 à 16:47
Porter plainte contre les fabricants de cordes empêcherait-il les gens de se pendre ?
3  2 
Avatar de Xavdeb
Futur Membre du Club https://www.developpez.com
Le 18/03/2026 à 18:55
On était moins regardant à l'époque du téléphone rose

Que s'est-il passé ?
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/03/2026 à 8:53
Citation Envoyé par Xavdeb Voir le message
On était moins regardant à l'époque du téléphone rose
L'imagination jouait un grand rôle, quand on est exposé à de la pornographie hardcore ça n'a pas le même effet sur le cerveau.

Le spectre de la pornographie est large, ça va du vraiment très soft (où l'imagination joue le rôle principal) à de l’extrême (où c'est graphique et le spectateur subis).
Si un enfant se met à regarder du contenu extrême ça peut avoir des conséquences négatives sur son cerveau.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 11:21
On résume: 1 mec parmi des millions d'autres dans le monde se confie à un programme informatique, fusse-t-il estampillé IA, et donc l'éditeur du logiciel devrait être au courant de l'affaire et prendre les mesures pour éviter que le mec en question passe aux actes???

Dans les pays européens, la procédure judiciaire n'aurait aucune chance d'aboutir en faveur de la plaignante mais aux USA tout est possible... Les USA où un fabricant de clavier pourrait être condamné à des centaines de millions de dommages et intérêts parce que l'un de ses utilisateurs s'est cassé un ongle en tapant sur une touche du clavier
0  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 17/03/2026 à 23:32
À ces risques psychologiques s'ajoute une faille technique béante. Le système de détection d'âge d'OpenAI identifiait à tort des mineurs comme des adultes dans environ 12 % des cas. Avec approximativement 100 millions d'utilisateurs mineurs par semaine, ce taux d'erreur pourrait donner accès à des contenus érotiques à des millions d'adolescents.
Comment ça, vous avez dit entre 10 et 30% d'hallucinations ?
Mais qui aurait pu prédire ?

Du cul, du cul, du cul : le credo d'une société à but non lucratif dont le seul objectif annoncé est la construction d'un monde-meilleur-qui-ne-serait-pas-atteignable-sans-sa-technologie.
2  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/03/2026 à 9:18
Citation Envoyé par Stéphane le calme Voir le message
En début mars 2026, OpenAI a reporté sine die le lancement du mode adulte, officiellement pour concentrer ses efforts sur d'autres produits. L'entreprise a toutefois précisé que la fonctionnalité était toujours prévue. La date n'a pas été communiquée.
Un mode pour adulte pourrait rapporter énormément d'argent.
Pour avoir accès au service il faudrait inscrire sa carte bancaire (plein de mineurs n'ont pas de carte bancaire).

Les mineurs peuvent facilement accéder à de la pornographie ailleurs, donc l'argument de « l'accès à des contenus érotiques à des millions d'adolescents » ne fonctionne pas du tout pour moi.
Il suffit d'avoir une adresse spéciale pour le mode adulte et que l'adresse soit dans la liste noire du filtre parentale et voilà.
2  3 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 23/03/2026 à 14:38
ils n'auront pas le choix.

openai est concurrencé par les gafams qui ont des fonds illimités (google...), il faudra bien trouver de l'argent.
Historiquement, le XXX a toujours été une bonne source de revenue. Xavier Niel a commencé par la en france par exemple.
La question ne se pose même pas, chatgpt va devoir générer du porn si la boite veut survivre. Et elle va devoir le faire mieux que Grok et les autres.
0  1