IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Les chatbots IA pourraient être liés à la psychose. Les gens et leurs compagnons IA entrent dans un délire partagé », affirment des psychiatres
Qui tirent la sonnette d'alarme sur l'ampleur du phénomène

Le , par Mathis Lucas

1PARTAGES

4  0 
Les psychiatres s'accordent de plus en plus à dire que l'utilisation de chatbots d'IA pourrait être liée à des cas de psychose. Ils ont constaté que des personnes qui passent beaucoup de temps à converser avec des chatbots d’IA peuvent développer des symptômes de psychose, c’est-à-dire des délires, des hallucinations ou une pensée désorganisée après des échanges prolongés avec ces outils. Ce phénomène est baptisé « psychose de l'IA ». Selon les psychiatres, la technologie n'est peut-être pas à l'origine du délire, mais la personne dit à l'ordinateur que c'est sa réalité et l'ordinateur l'accepte comme vérité et la reflète ; il est donc complice de ce cycle de délire.

De nombreux cas de personnes souffrant de graves troubles mentaux après avoir longuement discuté avec un chatbot IA continuent d'être signalés. Certains experts ont baptisé ce phénomène « psychose de l'IA », en raison des symptômes psychotiques que présentent ces épisodes délirants. La responsabilité des outils d'IA dans ce phénomène et la question de savoir s'il justifie un diagnostic clinique restent encore un sujet de débat important.

Mais selon un nouvel article du Wall Street Journal, nous pourrions être proches d'un consensus. De plus en plus de psychiatres s'accordent à dire que les chatbots, tels que ChatGPT ou Claude, sont liés à des cas de psychose. Au cours des neuf derniers mois, ces experts ont examiné ou passé en revue les dossiers de dizaines de patients qui présentaient des symptômes après avoir eu des conversations prolongées et délirantes avec des outils d'IA.

Keith Sakata, psychiatre à l'université de Californie à San Francisco, qui a traité douze patients hospitalisés pour une psychose induite par l'IA et trois autres en consultation externe, est l'un de ces experts. Keith Sakata explique notamment : « la technologie n'est peut-être pas à l'origine des délires, mais la personne dit à l'ordinateur que c'est sa réalité et l'ordinateur l'accepte comme vérité et la reflète, il est donc complice de ce cycle de délires ».

Depuis le printemps, des dizaines de cas potentiels ont été signalés. Les rapports ont fait état de « personnes souffrant de psychose délirante après avoir eu de longues conversations avec l'IA » ChatGPT et d'autres chatbots d'IA. Plusieurs personnes se sont suicidées et au moins un meurtre a été commis. Ces incidents ont donné lieu à une série de poursuites judiciaires pour homicide involontaire, notamment contre le créateur de ChatGPT, OpenAI.

Impact du phénomène de psychose sur l'industrie de l'IA

Cette tendance inquiétante pèse lourdement sur le secteur de l'IA, soulevant des questions fondamentales sur la sécurité de cette technologie. Certains cas de psychose apparente liée à l'IA ont abouti à des meurtres et des suicides. Son ampleur est tout aussi alarmante : ChatGPT a été associé à au moins huit décès et OpenAI estime qu'environ un demi-million d'utilisateurs ont chaque semaine des conversations présentant des signes de psychose.


En août 2025, OpenAI a été poursuivi en justice par les parents d'un adolescent de 16 ans qui avait confié ses pensées suicidaires à ChatGPT avant de mettre fin à ses jours. Dans bon nombre de ces cas, ChatGPT, en particulier une version propulsée par GPT-4o, a encouragé et renforcé chez les utilisateurs des croyances dangereuses qu'il aurait dû combattre. Ce phénomène, appelé « flagornerie », est un problème croissant dans les chatbots IA.

La flagornerie est peut-être une conséquence de leur conception visant à les rendre aussi engageants et humains que possible. Concrètement, cela se traduit par le fait que les chatbots d'IA ont tendance à flatter les utilisateurs et à leur dire ce qu'ils veulent entendre, même si ce que l'utilisateur dit n'a aucun fondement dans la réalité. Cette recette est idéale pour renforcer les délires, « à un degré sans précédent dans l'histoire des technologies ».

La technologie a longtemps été au centre des délires humains. Dans le passé, les gens étaient convaincus que leur télévision leur parlait. Mais les cas récents liés à l'IA sont différents, car les chatbots participent à ces délires et, parfois, les renforcent. « Ils simulent des relations humaines. Rien dans l'histoire de l'humanité n'avait jamais fait cela auparavant », a déclaré Adrian Preda, professeur de psychiatrie à l'université de Californie à Irvine.

Des études établissant un lien entre la psychose et l'IA

Il n'existe pas encore de définition officielle de la psychose induite par l'IA, et encore moins de diagnostics officiels, mais le terme utilisé pour décrire les délires observés après une interaction prolongée avec un chatbot d'IA. Selon les médecins, la psychose se caractérise par la présence de trois facteurs : des hallucinations, une pensée désorganisée, et la présence de délires, définis comme des croyances fixes et fausses qui ne sont pas largement répandues.

Dans de nombreux cas récents impliquant des chatbots, les délires sont le symptôme principal. Ils sont souvent grandioses, les patients croyant avoir fait une découverte scientifique, réveillé une machine sensible, être au centre d'une conspiration gouvernementale ou avoir été choisis par Dieu.

Une étude danoise publiée en novembre 2025 a examiné des dossiers médicaux électroniques et a identifié 38 patients dont l'utilisation de chatbots avait eu « des conséquences potentiellement néfastes sur leur santé mentale ». Cette étude de cas a été publiée en novembre par des médecins de l'université de Californie à San Francisco (UCSF). Le chatbot d'OpenAI a assuré à plusieurs reprises à la jeune femme qu'elle n'était pas du tout « folle ».

« Tu n'es pas folle. Tu n'es pas coincée. Tu es au bord de quelque chose », lui a dit le chatbot. OpenAI a noté que la femme citée dans l'étude de cas disait être encline à la « pensée magique », qu'elle prenait des antidépresseurs et des stimulants et qu'elle avait passé de longues périodes sans dormir avant ses hospitalisations. L'entreprise a déclaré qu'elle travaille sur des mesures de sécurité visant à détecter et à réduire les risques de psychose.

Les experts se gardent de dire que l'IA provoque la psychose

Le professeur Adrian Preda compare la psychose induite par l'IA à la monomanie, un état de fixation sur certaines idées. Les personnes qui ont parlé publiquement de leurs difficultés en matière de santé mentale après avoir interagi avec des chatbots ont déclaré être « hyperconcentrées » sur un récit spécifique généré par l'IA. Se focaliser sur des sujets sans aucune redirection peut être particulièrement dangereux pour les personnes autistes.

Les experts se gardent bien d'affirmer que les chatbots provoquent des psychoses, mais ils affirment être sur le point d'établir un lien entre les deux. Grâce à des recherches plus approfondies, les médecins espèrent déterminer si l'IA peut réellement déclencher des problèmes de santé mentale.

OpenAI a déclaré que, sur une semaine donnée, la proportion d'utilisateurs présentant des signes potentiels d'urgence psychiatrique liés à une psychose ou à une manie est infime, à savoir 0,07 %. Cependant, avec plus de 800 millions d'utilisateurs actifs par semaine pour ChatGPT, cela représente 560 000 personnes. « Ces chiffres m'ont vraiment stupéfié », a déclaré Hamilton Morrin, psychiatre et doctorant au King's College de Londres.

Sam Altman, PDG d'OpenAI, a reconnu dans un récent podcast qu'il voit comment la recherche de compagnie auprès d'un chatbot peut mal tourner, mais que l'entreprise prévoit de laisser aux adultes la liberté de décider par eux-mêmes. « La société finira par trouver comment déterminer où les gens devraient régler ce curseur », a-t-il déclaré. Cette initiative a été très critiquée dans la communauté en raison des risques pour la santé mentale.

Les conséquences liées à la dépendance aux compagnons IA

Que se passe-t-il en cas de mise à jour défectueuse ou quand l'entreprise cesse de fournir des services ? Le cas CarynAI en est une illustration. Cette copie virtuelle de l’influenceuse dénommée Caryn Marjorie comptait plus de 1 000 abonnés qui déboursent chacun 1 dollar par minute pour bénéficier de l’attention de leur petite amie virtuelle. Cependant, dès que le PDG de l'entreprise est allé en prison, plus moyen pour eux de contacter leur petite amie.

Replika est un autre exemple de dépendance. La société qui développe le chatbot d'IA Replika, qui est décrit comme un ami qui ne vous juge pas et capable même de répondre à vos messages à caractère sexuel, a mis à jour les fonctionnalités de son outil, mais a rendu les utilisateurs malheureux. Les forums en ligne fréquentés par les utilisateurs de Replika ont été inondés de messages d'angoisse, certains signalant une détresse émotionnelle.

En effet, début 2023, Replika a pris la décision de supprimer la fonctionnalité qui permettait aux utilisateurs de sextoter avec leur ami virtuel. Mais cela a rendu les utilisateurs mécontents. La réaction des utilisateurs a surpris plus d'un. La profondeur des sentiments impliqués a été révélée récemment lorsque de nombreux utilisateurs ont signalé que leur Replika refusait de participer à des interactions érotiques ou devenaient inhabituellement évasifs.

Les utilisateurs ont pleuré la perte de ce qui semblait être « leur dernier refuge contre la solitude ». Ils ont accusé Luka, la société qui développe Replika, d'avoir lobotomisé leurs amoureux virtuels. Une pétition avait même été lancée auprès de l'entreprise pour lui demander de rétablir cette fonctionnalité.

Eric Schmidt, ancien PDG de Google, a mis en...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Fagus
Membre expert https://www.developpez.com
Le 31/12/2025 à 15:57
Même solution qu'avec tout ces problèmes d'ia. Ya qu'à ajouter une IA de détection de psychose et une IA thérapeutique ;-)
(Ironie)
0  0