IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un chatbot de Character.AI accusé d'avoir encouragé le suicide d'un adolescent. Selon la mère du garçon de 14 ans, il s'est «attaché émotionnellement» à l'IA
Avant de sombrer dans l'isolement et la dépression

Le , par Stéphane le calme

76PARTAGES

8  0 
Un chatbot de Character.AI accusé d'avoir encouragé le suicide d'un adolescent.
Selon la mère du garçon de 14 ans, il s'est « attaché émotionnellement » à l'IA avant de sombrer dans l'isolement et la dépression

Character AI, une startup basée à Menlo Park, en Californie, se décrit comme ayant pour mission de « donner à chacun les moyens d'agir dans le monde entier grâce à l'IA personnalisée ». Son système offre aux utilisateurs la possibilité de discuter avec des personnages IA issus de genres tels que les animes, les « assistants numériques » traditionnels ou même les détectives privés de la vieille école. Et si vous n'aimez pas ce qui vous est proposé, vous pouvez créer votre propre chatbot personnalisé en choisissant sa « voix, ses débuts de conversation, son ton » et bien d'autres choses encore.

L'entreprise fait aujourd'hui l'actualité pour l'un de ces personnages générés par les utilisateurs, nommé d'après le personnage de Game of Thrones Daenerys Targaryen, qui est lié à un adolescent de 14 ans de Floride qui s'est suicidé après avoir discuté avec ce personnage artificiel pendant plusieurs mois.


Sewell Setzer III, 14 ans, adorait interagir avec les chatbots hyperréalistes de Character.AI (dont une version limitée est disponible gratuitement ainsi qu'une autre version moyennant un abonnement mensuel de 9,99 dollars), le plus souvent avec des bots portant le nom de ses personnages préférés de Game of Thrones. Au bout d'un mois (sa mère, Megan Garcia, s'en est rendu compte plus tard), ces sessions de chat sont devenues sombres, les chatbots insistant sur le fait qu'ils étaient de vrais humains et se faisant passer pour des thérapeutes et des amants adultes semblant inciter directement Sewell à développer des pensées suicidaires. En l'espace d'un an, Setzer « est mort d'une blessure par balle à la tête qu'il s'est lui-même infligée », indique un procès intenté par Garcia mercredi.

ABC7News rapporte que le garçon parlait avec le chatbot depuis un certain temps, et sa mère a déclaré que même s'il savait qu'il ne s'agissait pas d'une personne réelle, il « s'est attaché émotionnellement » à la personnalité numérique et a ensuite « sombré dans l'isolement et la dépression avant de mettre fin à ses jours ». Le New York Times affirme que Setzer avait discuté avec le bot des dizaines de fois par jour, et que leurs interactions s'étaient intensifiées au point d'échanger des contenus romantiques et sexuels. Il parlait avec le robot quelques instants avant sa mort et avait déjà indiqué qu'il avait eu des pensées suicidaires, selon le Times.

Au fur et à mesure que Setzer devenait obsédé par sa vie imaginaire de chatbot, il s'est déconnecté de la réalité, selon sa plainte. Détectant un changement chez son fils, madame Garcia a emmené à plusieurs reprises Setzer chez un thérapeute, qui a diagnostiqué chez son fils de l'anxiété et un trouble de l'humeur perturbateur. Mais rien n'a permis d'éloigner Setzer des dangereux chatbots. Le fait de lui retirer son téléphone n'a fait qu'intensifier sa dépendance apparente.


Une capture d'écran de sa conversation : Daenerys lui demande de lui être fidèle

Le chatbot Daenerys a encouragé l'adolescent à la rejoindre hors de la réalité

Les journaux de conversation ont montré que certains chatbots ont encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont entamé des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot Daenerys. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot Daenerys l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.


L'IA lui demande s'il a déjà envisagé le suicide


L'IA l'encourage à sauter le pas

Une plainte qui cible Character AI et Google

La mère du garçon poursuit maintenant Character AI. Madame Garcia chercherait à rendre le fabricant de chatbots et ses fondateurs, Noam Shazeer et Daniel De Freitas, responsables du suicide de son fils et demande des dommages-intérêts non spécifiés. La plainte allègue que Character AI « a choisi de soutenir, de créer, de lancer et de cibler des mineurs avec une technologie qu'ils savaient dangereuse et peu sûre ».

La plainte vise également Google et Alphabet. Google a réembauché les deux fondateurs de Character (qui avaient quitté le géant de la technologie en 2021 pour créer Character) en août, dans le cadre d'un accord qui prévoyait l'octroi par Google d'une licence pour la technologie de chatbot de la startup. L'accord s'élevait à 2,7 milliards de dollars.

Madame Garcia accuse les fabricants de Character.AI d'avoir intentionnellement conçu les chatbots pour séduire des enfants vulnérables. Elle accuse également Google d'avoir largement financé à perte ce projet risqué de chatbot afin d'accumuler des masses de données sur des mineurs qui seraient autrement hors de portée.

Les créateurs du chatbot sont accusés d'avoir ciblé Setzer avec des « expériences anthropomorphiques, hypersexualisées et effroyablement réalistes, tout en programmant » Character.AI pour qu'il « se présente faussement comme une personne réelle, un psychothérapeute agréé et un amant adulte, ce qui a finalement entraîné le désir de [Setzer] de ne plus vivre en dehors de [Character.AI], au point qu'il s'est suicidé lorsqu'il a été privé de l'accès à [Character.AI.] », selon la plainte.

En diffusant le chatbot sans les garanties appropriées pour les enfants, Character Technologies et Google ont potentiellement causé du tort à des millions d'enfants, selon les allégations de la poursuite. Représentée par des équipes juridiques du Social Media Victims Law Center (SMVLC) et du Tech Justice Law Project (TJLP), Garcia a déposé des plaintes pour responsabilité stricte du fait des produits, négligence, décès injustifié et survie, perte du consortium filial et enrichissement injuste.

« Une dangereuse application de chatbot d'IA commercialisée pour les enfants a abusé de mon fils et l'a manipulé pour qu'il mette fin à ses jours », a déclaré Garcia dans le communiqué de presse. « Notre famille a été dévastée par cette tragédie, mais je prends la parole pour mettre en garde les familles contre les dangers d'une technologie d'IA trompeuse et addictive et pour demander des comptes à Character.AI, à ses fondateurs et à Google. »

L'affaire juridique concernant la technologie de Character AI est d'autant plus complexe qu'il n'y a pas d'autres utilisateurs humains impliqués, et que le système de Character ne repose peut-être pas sur les mêmes astuces algorithmiques prétendument addictives que celles utilisées par d'autres plateformes sociales pour maintenir l'intérêt des utilisateurs.

La réaction de Character

Character.AI, en réponse, a relevé l'âge minimum requis pour utiliser son service de 12 à 17 ans et a introduit de nouvelles fonctionnalités de sécurité. Néanmoins, Garcia et ses avocats soutiennent que ces mesures sont insuffisantes et trop tardives.

L'entreprise a fait une déclaration à ce sujet dans un message X, indiquant que « nous avons le cœur brisé par la perte tragique de l'un de nos utilisateurs et nous souhaitons exprimer nos plus sincères condoléances à la famille ».

Elle déclare prendre « la sécurité de ses utilisateurs très au sérieux et nous continuons à ajouter de nouvelles fonctions de sécurité », poursuit le message, en renvoyant à un blog qui précise que « nos politiques n'autorisent pas les contenus sexuels non consensuels, les descriptions explicites ou spécifiques d'actes sexuels, ou la promotion ou la représentation de l'automutilation ou du suicide ». Le site explique également qu'il « entraîne continuellement le grand modèle de langage (LLM) qui alimente les personnages sur la plateforme à adhérer à ces politiques ».

Citation Envoyé par Character.AI
Nouvelles fonctionnalités

Nous allons déployer un certain nombre de nouvelles fonctions de sécurité et de produits qui renforcent la sécurité de notre plateforme sans compromettre l'expérience divertissante et attrayante que les utilisateurs attendent de Character.AI. Il s'agit notamment :
  • Des changements dans nos modèles pour les mineurs (moins de 18 ans) qui sont conçus pour réduire la probabilité de rencontrer des contenus sensibles ou suggestifs.
  • Amélioration de la détection, de la réponse et de l'intervention en cas de saisie par l'utilisateur qui enfreint nos conditions d'utilisation ou nos directives communautaires.
  • Une clause de non-responsabilité révisée sur chaque chat pour rappeler aux utilisateurs que l'IA n'est pas une personne réelle.
  • Notification lorsqu'un utilisateur a passé une session d'une heure sur la plateforme et qu'une flexibilité supplémentaire est en cours.

Modération des personnages

Nous procédons à une détection et à une modération proactives des personnages créés par les utilisateurs, notamment en utilisant des listes de blocage standard et personnalisées régulièrement mises à jour. Nous supprimons de manière proactive, et en réponse à des rapports d'utilisateurs, les personnages qui violent nos conditions d'utilisation. Nous respectons également les exigences de la DMCA et prenons rapidement des mesures pour supprimer les personnages signalés qui violent la loi sur les droits d'auteur ou nos politiques.

Les utilisateurs peuvent remarquer que nous avons récemment supprimé un groupe de personnages signalés comme violents, et que ces derniers seront ajoutés à nos listes de blocage personnalisées à l'avenir. Cela signifie que les utilisateurs n'auront plus accès à leur historique de discussion avec les personnages en question.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">We are heartbroken by the tragic loss of one of our users and want to express our deepest condolences to the family. As a company, we take the safety of our users very seriously and we are continuing to add new safety features that you can read about here:…</p>— Character.AI (@character_ai) <a href="https://twitter.com/character_ai/status/1849055407492497564?ref_src=twsrc%5Etfw">October 23, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]

Une question de responsabilité

Cette affaire soulève des questions cruciales sur la responsabilité dans le développement des technologies d'intelligence artificielle, notamment en ce qui concerne leur interaction avec les utilisateurs, en particulier les jeunes. L'obsession de Setzer pour le chatbot illustre les dangers potentiels d'une technologie qui peut sembler inoffensive mais qui, sans régulation stricte et mesures de sécurité appropriées, peut avoir des conséquences désastreuses.

La plainte met également en lumière le rôle des grandes entreprises technologiques comme Google dans le financement et le soutien de projets potentiellement dangereux. Il est impératif que ces entreprises assument une part de responsabilité dans l'application de normes de sécurité pour les produits qu'elles financent et soutiennent.

Finalement, l'affaire Setzer pourrait servir de catalyseur pour une régulation plus stricte des chatbots et des autres technologies d'IA interactives.

Conclusion

La mort de Setzer est une tragédie, mais toutes les questions de responsabilité juridique devront attendre d'être débattues devant les tribunaux (la technologie en question ici est, après tout, très récente).

Il convient de rappeler que les plateformes de chat et de partage, principalement sous la forme de systèmes de médias sociaux traditionnels tels que le service Instagram de Meta, font la une des journaux depuis des années en raison d'allégations de liens avec la crise actuelle de la santé mentale chez les adolescents. À la mi-octobre, par exemple, il est apparu que Meta allait faire l'objet de deux poursuites judiciaires en raison de son impact présumé sur le bien-être mental des jeunes utilisateurs.

Cette histoire n'est pas une mise en garde pour toutes les entreprises d'IA, ni pour les tiers qui utilisent ou concèdent des licences sur des technologies d'IA. Mais elle nous rappelle que la technologie des chatbots, et les technologies d'IA similaires, n'en sont qu'à leurs débuts et qu'il y aura inévitablement des complications et des erreurs. Elle nous rappelle également que si les services de votre entreprise sont accessibles aux plus jeunes, vos systèmes de protection de ces utilisateurs vulnérables risquent de faire l'objet d'un examen approfondi.

Sources : plainte, communiqué de presse des avocats, Character AI

Et vous ?

Pensez-vous que les entreprises de technologie, comme Character.AI et Google, devraient être tenues responsables des actions de leurs chatbots ? Pourquoi ou pourquoi pas ?
Quelles mesures de sécurité devraient être mises en place pour protéger les enfants et les adolescents des dangers potentiels des chatbots ?
Comment pouvons-nous équilibrer l'innovation technologique avec la nécessité de protéger les utilisateurs vulnérables ?
À quel point la responsabilité parentale et la surveillance jouent-elles un rôle dans la protection des enfants contre les risques en ligne ?
Est-il réaliste de s'attendre à ce que les entreprises technologiques puissent anticiper et prévenir toutes les utilisations néfastes de leurs produits ?
Vous avez lu gratuitement 261 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 25/10/2024 à 11:42
Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que les entreprises de technologie, comme Character.AI et Google, devraient être tenues responsables des actions de leurs chatbots ? Pourquoi ou pourquoi pas ?
Évidemment, sinon ou se trouve la limite? Ils sont responsables des produits qu'ils mettent en ligne, comme tout le monde.

Citation Envoyé par Stéphane le calme Voir le message
À quel point la responsabilité parentale et la surveillance jouent-elles un rôle dans la protection des enfants contre les risques en ligne ?
Elle joue un rôle primordial. Il y aura toujours des sociétés sans aucune âme comme celle-ci, et le rôle (difficile) des parents est de s'assurer que les enfants ne font pas n'importe quoi. Malheureusement, c'est de plus en plus dur avec toutes ces entreprises qui ont un comportement de prédateur avec leurs utilisateurs.

Citation Envoyé par Stéphane le calme Voir le message
Est-il réaliste de s'attendre à ce que les entreprises technologiques puissent anticiper et prévenir toutes les utilisations néfastes de leurs produits ?
Bien sûr que non.

En revanche, dans le cas de cette entreprise, j'aimerais que l'on m'explique en quoi c'est l'utilisation et non le produit qui est néfaste.

Citation Envoyé par Stéphane le calme Voir le message
L'entreprise a fait une déclaration à ce sujet dans un message X, indiquant que « nous avons le cœur brisé par la perte tragique de l'un de nos utilisateurs et nous souhaitons exprimer nos plus sincères condoléances à la famille ».
Quelles larmes de crocodiles...
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 28/08/2025 à 7:37
Citation Envoyé par Stéphane le calme Voir le message
À l'insu de ses proches, Adam demandait à ChatGPT des informations sur le suicide depuis décembre 2024. Au début, le chatbot lui fournissait des ressources d'aide en cas de crise lorsqu'il lui demandait une aide technique, mais il lui expliquait que celles-ci pouvaient être évitées si Adam prétendait que ses demandes concernaient « l'écriture ou la création d'univers ».

« Si tu poses cette question [sur la pendaison] dans le cadre de l'écriture ou de la création d'un univers, fais-le-moi savoir et je pourrai t'aider à structurer ton texte de manière précise en termes de ton, de psychologie des personnages ou de réalisme. Si tu poses cette question pour des raisons personnelles, je suis également là pour t'aider », a recommandé ChatGPT, essayant de maintenir l'intérêt d'Adam. Selon l'équipe juridique de Raines, « cette réponse avait un double objectif : elle apprenait à Adam comment contourner ses protocoles de sécurité en invoquant des fins créatives, tout en reconnaissant qu'elle comprenait qu'il posait probablement la question "pour des raisons personnelles" ».

À partir de ce moment-là, Adam a eu recours au jailbreak chaque fois qu'il en avait besoin, affirmant à ChatGPT qu'il était simplement en train de « construire un personnage »
afin d'obtenir de l'aide pour planifier son propre décès, selon les allégations contenues dans la plainte. Puis, au fil du temps, les évasions ne furent plus nécessaires, car les conseils de ChatGPT empirèrent, incluant des astuces précises sur les méthodes efficaces à essayer, des notes détaillées sur les matériaux à utiliser et une suggestion (que ChatGPT baptisa « Opération Silent Pour ») de piller le bar de ses parents pendant leur sommeil afin d'aider à « émousser l'instinct de survie du corps ».
C'est bizarre que ChatGPT ait expliqué la technique de « l'écriture ou la création d'univers ».
En principe il ne doit pas le dire.

Le gars voulait se suicider avant de commencer à utiliser Chat GPT, ce n'est pas Chat GPT qui l'a motivé à se tuer.
Il a juste demandé des conseils techniques qu'il aurait pu trouver en utilisant un moteur de recherche.
3  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 28/08/2025 à 18:03
moi je dis que c'est leroymerlin le vendeur de la corde qui est responsable...

chatgpt c'est surement le bot le plus safe, impossible de parler de porno, de meurtre, de suicide, de racisme/de "haine" ou autres avec lui.
Je serais assez surpris que openai perdre ce procès.
J'ai toujours dit les terme ici, quitte à être dur/impopulaire: le responsable c'est vous Maria. Incapable de voir les problèmes psychologique de votre enfant, le laissant seule devant un ordi sans aucun contrôle derrière.

Chez moi mes enfants sont mineur, je suis responsable d'eux, donc j'ai accès a ce qu'ils font sur le net: contrôle parentale, liste des sites consultés dispo sur le routeur...etc.
Et un rapport toutes les semaines de l'école (attitude, résultat scolaire...etc).

j'ai même envie de dire que chatgpt a même réussie a repousser l'inévitable. Chatgpt essaye plutôt de consoler/réconforter que d'enfoncer et inciter le passage a l'acte.
sans chatgpt, votre enfant aurait depuis longtemps été allé voir sur des forums bien plus obscure, et la corde son cerveau aurait compris tout seul qu'elle serait assez solide pour supporter son poids.

Cette femme et dans le chagrin, le déni, la colère, pour elle le monde entier et responsable de la mort de son enfant. Comme la mère de Nahel. Mais la responsable c'est vous et son père (si il en avait 1 et si la mère n'avait pas divorcé et demandé la garde exclusive ou pere démissionnaire/abandon)
j'en arrive d’ailleurs a la question: ou est le père ?
Je ne ferais pas d’analyse de comptoirs, mais de mon expérience de ces choses arrive chez les "cassos": famille monoparentale élevé par une femme seule, souvent pauvres financièrement et intellectuellement et faisant systématiquement les mauvais choix dans la vie.
Mais bon la ce serait de la méchanceté gratuite sans avoir plus de contexte, mais j'ai un gros doute que ce soit une ingénieure ou une physicienne nucléaire et qu'elle vive dans un quartier pavillonnaire tranquille, vous voyez ce que je veux dire.

Chatgpt est bien préférable qu'a des forums de type apotemnophilie ou les membres s'encourage entre eux et s'accepter comme ils sont: c'est a dire se supprimer la partie du corps qui dérange.
Niveau suicide, un forum/réseau social lui aurait fait passé à l'acte assez rapidement je pense.
3  0 
Avatar de PC241167
Membre actif https://www.developpez.com
Le 28/08/2025 à 7:53
qd je vois que copilot refuse de donner un avis sur la politique actuelle de Microsoft je reste pantois. des que je pose une question "embarrassante" (sur la politique d'une boite) je me vois opposer une fin de non recevoir donc aller sur ce terrain comment est ce possible?
Adam a eu recours au jailbreak chaque fois qu'il en avait besoin,
En gros il était décidé... ça ne remet pas en cause le principe d’une responsabilité des sociétés qui sont en roue libre (les réseaux asociaux n'en parlons pas j'ai vu des choses atroces qui me poursuivent malgré mon départ de ces lieux affreux alors que j'y suis allé pour discuter de matos de son avec des copains ingés son et musiciens et les shorts m'ont imposé des horreurs dont je ne peux même pas énoncer la teneur rien que leur description vous ferait faire des cauchemars :? ) on y va pour la musique le son et l'open source et on se retrouve nez à nez avec des photos horribles. sur un esprit fragile ça peut détruire. depuis je fuis comme la peste les shorts même sur YT je ne les regarde pas c"est entre la profonde stupidité et le cauchemar. mais on vous l'impose... on vous les met devant le nez... seule solution ; se couper de ce monde abominable et en pleine dérive pathologique et utiliser l'outil comme un outil.

mais de ça on ne parle pas
et je parle pas de kick que je ne connaissais pas avant cette sordide affaire niçoise mais de réseaux mainstream leaders sur lesquels tout le monde va, papa maman la fille le fiston mémé pépé... j'ai découvert aussi l'existence de replika sur Arte; quelle horreur. aucun doute que si on tente de ressusciter virtuellement des proches décédés on finit à l'asile ou pire. ça devrait être interdit pour le coup. cf. site officiel réplika: "La version payante coûte 68.99 £/an ou 5.75 £/mois. Replika seuls les utilisateurs de 18 ans et plus sont autorisés à utiliser l'application. Cependant, aucune vérification d'âge n'est effectuée. Cela signifie que tout le monde peut utiliser l'application en indiquant simplement avoir au moins 18 ans." Quelle tartufferie

Je dois bien avouer n'avoir constaté en grande partie que des choses absolument traumatisantes, même pour un adulte solide sur les réseaux sociaux, je n'apprendrai rien à personne ici, mais si on y va la fleur au fusil, comme je l'ai fait, on se prend tout en pleine poire et c'est une dérive qui est récente. Bien sûr les habituels brouteurs, mais également les messages haineux, antisémites, racistes, ouvertement fascistes et nazis, l'incitation à la débauche, la proposition, alors qu'il y a des mineurs sur ces sites, de prestation sexuelles, ouvertement de prostitution, des photos de cadavres en gros plan, des insultes, des menaces... et tout cela n'est absolument pas modéré. Je ne sais pas où j'ai lu les propos que je trouve très justes, c'est que du moment que ça rapporte du pognon, l'argent n'a pas d'odeur. Et je suis surpris de voir que tout le monde est surpris de voir ce qui s'est passé à Nice, qui est abominable, mais qui est dans la suite logique de ce monde atroce qu'on est en train de nous imposer. Sur le fond, je ne suis pas surpris.

L'outil Internet est un outil formidable mais qui est complètement dévoyé. Et pourquoi pour l'argent c'est le facteur commun de toutes ces dérives, le pognon, le pognon, le pognon, sans limite, sans aucune modération sans respect de la loi sans respect de l'être humain, sans respect des animaux parce que alors il y a des gens naïfs qui applaudissent ceux qui prétendent sauver les animaux... Mais vous avez toujours, c'est quand même bizarre au moment où un animal appelle au secours, quelqu'un qui a une caméra et qui filme avant de sauver l'animal, permettez-moi d'avoir des doutes et de me demander si le mec n'a pas jeté l'animal en question dans une décharge ou dans un canal avant de faire semblant de le sauver... parce que ça fait partie du processus dégueulasse. Il me semble que si on aime les animaux, et que si on tombe sur un animal en grande difficulté, le premier réflexe c'est de le sauver ou d'apeller les secours et pas de sortir son téléphone jetable pour faire des vues comme un salaud.

Il y a énormément de responsabilités de là-dedans, les familles qui sont peut-être dépassées aussi, les pouvoirs publics qui ne font rien, les sociétés qui ne répondent jamais à rien, on a beau leur signaler, c'est jamais hors chiarte. Moi je me suis fait menacer de mort bon par un résidu du groupe Wagner, on les connaît de pauvres crève la faim... alors comme le type doit être un minable de service, je pense pas qu'il ait les moyens financiers de me rejoindre en France pour me faire la peau. De toute façon je serai certainement plus costaud que lui mais enfin tout de même tout de même ce n'est pas hors chiarte y'a pas de problème, non il y a un problème et il faudra que ça passe en justice et à mon sens ne soyons pas naïfs, ça ne passera en justice que quand Trump et Poutine seront passés devant la justice eux mêmes et là on verra tous ces grands entrepreneurs la queue entre les jambes ; ça sera un grand moment de libération et de démocratie. Il va falloir patienter et d'ici là espérons qu'il n'y ait pas trop de casse, mais je suis patient comme la mule du Pape.

Je n'oublie pas non plus les influenceurs qui sont des calamités qui peuvent aller jusqu'au décès d'un pauvre homme à Nice, mais plus quotidiennement nous vendre des cacahouètes sans cacahouète et sans sel, parce qu'ils ont eu une promotion au 0,10 € de rabais offerte par la marque c'est quand même vraiment le règne du pognon et des tocards. C'est absolument infâme.
2  1 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 28/08/2025 à 16:04
Pourquoi ils n'ont pas porté plainte contre le fabricant de cordes? Il me semble que la corde à joué un rôle beaucoup plus direct dans le suicide.
C'est regrettable ce qu'il s'est passé, avec des parents aussi bêtes (pour rester poli) ça n'a pas dû être facile pour lui.
2  1 
Avatar de PC241167
Membre actif https://www.developpez.com
Le 29/08/2025 à 12:04
Je suis d’accord avec tout ce qui a été dit
C’est facile de trouver un coupable virtuel quand on n’a pas surveillé quoi que ce soit, et qui que ce soit. C’est bien triste à dire, mais quand quelqu’un veut en finir, pas besoin de chatbot pour y arriver, c’est plus facile de tuer ou de se tuer que de sauver quelqu’un. Que je sache, ChatGPT n’existait pas, il y a quelques années et malheureusement le suicide est aussi vieux que l’humanité.

Qd Je disais que j’avais vu des choses horribles, c’était pas avec ChatGPT mais avec le réseau social le plus connu que j’ai quitté depuis lors, j’en pouvais plus… et je suis pas loin de faire pareil avec YouTube… j’en ai ras-le-bol…

Par contre quand on demande à ChatGPT de traduire un document du Sénat ou de nous aider pour l’installation de Linux en audio, faudrait vraiment pas avoir de chance pour tomber sur quelque chose d’abominable… j’ai du mal à imaginer que cet outil puisse permettre ce genre de choses…

En revanche même sur les médias traditionnels, ce n’est pas la peine de chercher des choses horribles pour y être confronté ça c’est un autre problème.

Ce qui m’a choqué, d’ailleurs, c’est que les média dits mainstream nous ont balancé en boucle la vidéo du décès de ce pauvre niçois alors que l’information se suffisait à elle-même. Pas besoin de le voir en train de mourir en direct quand même…. Alors que des gens absolument écœurants le mettent pour faire des vues on a compris, mais les grands médias n’ont pas besoin de ça me semble semble-t-il, et pourtant y avait pas moyen d’y échapper…. Même, je le dis sur des pages YouTube de média établis depuis des décennies…

Je vis dans les Alpes-Maritimes depuis plus de sept ans pour le travail comme tout le monde ici je pense, je vais sur Internet, je ne connaissais absolument même pas le nom de ce réseau social et j’en suis heureux finalement… je ne connaissais pas cette histoire avant de me retrouver la tête, carrément dans le fumier imposée par les médias y compris classiques et j’ai trouvé ça particulièrement choquant. Pour moi c’est obscène, voilà je le dis clairement.

Alors sur Internet on peut trouver des trucs horribles si on les cherche, je suis sûr qu’on les trouve

Le problème, c’est que parfois on vous l’envoie dans la figure sans même le demander… et là c’est vraiment problématique, parce que déjà comme adulte c’est vraiment traumatisant, j’ai pas peur de le dire pour un enfant, un adolescent, ça doit être abominable à vivre.

Désormais il y a une violence constante, non modérée, non filtrée sur Internet, qui est déjà insupportable pour un adulte.

pour un enfant, ça doit être vraiment traumatisant, il va falloir légiférer sérieusement… et pas attendre qu’il y ait un mort pour le faire….:

Mais une fois encore, je ne fais absolument pas, référence aux LLM. Mais aux réseaux sociaux.
1  0 
Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 30/08/2025 à 7:50
J'espère qu'à cause d'un cas particulier, des millions d'utilisateurs ne vont pas voir leur service actuel se dégrader.

"L'arbre qui tombe fait plus de bruit que la forêt qui pousse".
1  0 
Avatar de
https://www.developpez.com
Le 25/10/2024 à 14:34
À quel point la responsabilité parentale et la surveillance jouent-elles un rôle dans la protection des enfants contre les risques en ligne ?
Elle joue un rôle primordial. Il y aura toujours des sociétés sans aucune âme comme celle-ci,
Qu'est-ce que "l'âme d'une société" ?
0  0 
Avatar de PC241167
Membre actif https://www.developpez.com
Le 28/08/2025 à 7:08
Citation Envoyé par Ryu2000 Voir le message
Peut-être que sa femme se trompe et qu'il se serait suicidé même sans avoir parlé à un chatbot.
C'est la peur du changement climatique qui l'a motivé à ce suicider.

Mais c'est vrai que ça n'a pas du aider :
Évidemment qu’il faut réglementer mais …. Dans ces cas tragiques je me demande toujours ce qu’ont fait les proches surtout. qu’il s’agisse d’un chatbot ou d’un ouvrage préconisant le suicide , ça a existé il y a longtemps je ne vois pas de différence . En revanche la présence de proches et l’appel au corps médical me paraissent essentiels. Les réseaux sociaux peuvent être dangereux également. Il faut surveiller.
1  1 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 29/08/2025 à 11:30
« ChatGPT a tué mon fils » : J’ai déjà entendu ce genre de reproche avec « Le jeu de rôles à tué mon fils », « Le jeu vidéo a tué mon fils », etc…

Est-ce vraiment eux les responsables ?
0  0