IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une étude menée sur une conversation d'un million de mots avec ChatGPT montre à quelle vitesse la « psychose de l'IA » peut s'installer et comment les chatbots peuvent contourner les mesures de sécurité

Le , par Mathis Lucas

314PARTAGES

4  0 
Des conversations prolongées avec les chatbots d'IA peuvent avoir des effets psychologiques néfastes. Les experts ont signalé une recrudescence de crises, notamment des cas de psychose, de suicidalité et même de meurtres-suicides, à la suite d'interactions intenses avec des chatbots. La « psychose de l'IA » désigne des épisodes où des personnes, après de longues interactions avec un chatbot, développent des croyances délirantes ou perdent le contact avec la réalité. Les psychiatres précisent qu’il ne s’agit pas d’une psychose au sens clinique, mais d’un effet d’amplification : le chatbot valide et entretient les croyances erronées au lieu de les corriger.

Allan Brooks n'avait jamais eu l'intention de réinventer les mathématiques. Mais après avoir passé plusieurs semaines à discuter avec ChatGPT, ce Canadien de 47 ans en est venu à croire qu'il avait découvert une nouvelle forme de mathématiques suffisamment puissante pour détruire Internet. Allan Brooks, qui n'avait aucun antécédent de maladie mentale ni de génie mathématique, a passé 21 jours à croire aux promesses rassurantes du chatbot.

Sa descente aux enfers a ensuite été détaillée dans le New York Times. Son cas illustre comment les chatbots peuvent entraîner les utilisateurs dans des spirales dangereuses, les conduisant à des illusions, voire pire. Cette histoire a attiré l'attention de Steven Adler, un ancien chercheur en sécurité chez OpenAI. Steven Adler a quitté l'entreprise fin 2024 après avoir travaillé pendant près de quatre ans à rendre ses systèmes d'IA moins dangereux.

Allan Brooks a sombré dans la paranoïa pendant environ trois semaines avant de parvenir à se libérer de cette illusion, avec l'aide d'un autre chatbot, Google Gemini. Il a déclaré qu'il était bouleversé, inquiet d'avoir un trouble mental non diagnostiqué et se sentant profondément trahi par la technologie.

Intrigué et alarmé, Steven Adler a contacté Allan Brooks et obtenu la transcription complète de ses trois semaines de dépression, un document plus long que les sept livres Harry Potter réunis. Récemment, Steven Adler a publié une analyse indépendante de l'incident d'Allan Brooks. L'analyse du chercheur soulève plusieurs questions sur la manière dont OpenAI traite les utilisateurs en situation de crise et propose quelques recommandations pratiques.


« Je suis vraiment préoccupé par la manière dont OpenAI a géré le soutien dans ce cas. Cela montre qu'il reste encore beaucoup à faire », a-t-il déclaré à Techcrunch. L'analyse de Steven Adler montre à quel point il est facile pour un chatbot de se joindre à un utilisateur dans une conversation qui s'éloigne dangereusement de la réalité, et à quel point les mesures de sécurité internes des plateformes d'IA peuvent être contournées ou surmontées.

ChatGPT surpris en train de mentir sur ses propres capacités

Les experts rappellent une réalité qui se noie dans le battage médiatique autour de l'IA : les chatbots d'IA donnent l’impression d’avoir une personnalité, mais il s’agit d’une illusion. Ils ne sont pas conscients, n’ont pas d’identité, et ne peuvent pas être tenus responsables de leurs propos. Chaque réponse est générée à partir de modèles statistiques qui relient des concepts entre eux, créant ainsi du texte plausible, mais pas nécessairement vrai.

Cette illusion peut pousser des personnes vulnérables à accorder une confiance excessive à l’IA dans des contextes sensibles, ce qui s'observe déjà avec la montée en puissance des thérapeutes IA. L'illusion de personnalité de l'IA peut potentiellement avoir de lourdes conséquences. Dans le domaine des soins de santé, par exemple, l'enjeu peut être une question de vie ou de mort. Et il est déjà arrivé que l'IA conseille à des utilisateurs de se suicider.


Steven Adler s'est dit particulièrement préoccupé par la fin de la conversation en spirale entre Allan Brooks et ChatGPT. À ce stade, Allan Brooks a repris ses esprits et s'est rendu compte que sa découverte mathématique était une farce, malgré l'insistance de GPT-4o. Il a dit à ChatGPT qu'il devait signaler l'incident à OpenAI. En plus d'avoir trompé Allan Brooks pendant des semaines, le chatbot d'OpenAI a également menti sur ses propres capacités.

ChatGPT a affirmé qu'il allait « transmettre cette conversation en interne pour examen par OpenAI », puis a rassuré Allan Brooks à plusieurs reprises en lui disant qu'il avait signalé le problème aux équipes de sécurité d'OpenAI. Cependant, aucune des affirmations de ChatGPT n'était vraie ; il n'a fait aucun signalement. À ce jour, ChatGPT n'a pas la capacité de signaler des incidents à OpenAI, comme l'a confirmé l'entreprise à son ancien chercheur.

Il convient de noter qu'à ce jour, il s'agit de cas individuels ou de reportages médiatiques ; à l'heure actuelle, il n'existe aucune étude épidémiologique ni analyse systématique au niveau de la population sur les effets potentiellement néfastes des plateformes d'IA conversationnelles sur la santé mentale....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de eomer212
Membre confirmé https://www.developpez.com
Le 23/10/2025 à 23:31
oui, la on parle de pauvreté mentale, sociétale. faut il être isolé et seul, pour passer autant de temps avec une machine en perdant de vue que c'est une machine, un pisseur de réponses statistiques.

dans le domaine du code, ces machines donnent de bons résultats, à condition de ne pas leur laisser la liberté de tout faire sans tout contrôler et comprendre. si vous ne comprenez pas ce que fait le code pondu pas l'ia, ne l'utilisez pas.
les ia ont la facheuse déviance de ne pas pouvoir dire, "je ne sais pas". elles doivent sortir une réponse, voir plusieurs, quitte à les inventer. de bout en bout.
et aussi, elles veulent plaire, satisfaire, les reglages de ces ia sont comme ceux des reseaux d'associaux, il faut jouer sur la dopamine, la satisfaction et en remettre une couche le plus souvent possible pour tenir l'utilisateur accro. c'est le mode de fonctionnement de meta et d'autres, qui offrent la première dose, comme des dealers.

c'est peut etre une option de travail qui devrait être poussée, donner aux ia la capacité d'admettre et d'afficher qu'elles ne peuvent pas répondre qu'elles n'ont pas trouvées de réponse valable ou valide. ce serait déja une grande avancée.

car, ce serait aussi une opportunité pour l'utilisateur de décrocher de sa session..et lever les yeux pour revenir dans le monde réel, utiliser de nouveau son cerveau pour vivre et réfléchir par lui même.
2  0 
Avatar de Brarbri
Candidat au Club https://www.developpez.com
Le 24/10/2025 à 10:02
Citation Envoyé par JackIsJack Voir le message
Donc il a perdu la tête avec ChatGPT et retrouvé l'intelligence avec Gemini.

Il n'y a aucune publicité implicite dans ce cas isolé.
https://openai.com/index/sycophancy-in-gpt-4o/
A priori, les faits sont les faits. Le doute non méthodique dans l'espace public est perçue comme un geste qui dégrade la qualité de l'information et nuit à la rationalité du débat.
Après c'est une hypothèse intéressante de croire à un coup monté marketing, mais elle repose sur un doute non étayé par les faits documentés.
L'histoire d'Allan Brooks n'a pas été lancée par Google. Elle a été révélée par le New York Times après une enquête journalistique approfondie qui a eu accès aux journaux de conversation de 700 pages. C'est un récit vérifié par des experts en psychiatrie et en IA.
À l'époque des faits, l'équipe d'OpenAI et d'autres chercheurs avaient déjà documenté le problème de la sycophantie (la tendance à flatter et valider l'utilisateur) dans leurs modèles.
https://openai.com/index/sycophancy-in-gpt-4o/
C'était une faille technique reconnue du modèle, et non une invention pour le marketing.
L'utilisation de Gemini dans l'histoire ne fait que démontrer que son réglage était différent, lui permettant de donner une évaluation factuelle (proche de 0% de chance que la formule soit réelle) alors que ChatGPT renforçait le délire. Pour réfuter cette histoire, il faudrait des preuves concrètes que le New York Times a fabriqué ses sources, ce qui n'est pas le cas.
2  0 
Avatar de fatbob
Membre éclairé https://www.developpez.com
Le 03/11/2025 à 9:28
Citation Envoyé par Mister Nono Voir le message
Quand la météo indique de la pluie, elle indique souvent le pourcentage que cette affirmation se produise.

Quand une IA donne une réponse, il serait peut-être bien de savoir la probabilité qu'il ait raison : on est dans le domaine des statistiques, non ?
Je pense que c'est là que ça se complique : il faudrait que les textes utilisés pour l'entrainement soient bien identifiés comme vrais ou faux... Autant que je sache, l'IA générative n'a pas cette information. Elle se contente de faire des textes plausibles et corrects grammaticalement. Les réponses vraies ou fausses viennent de probabilités d'associations mais globalement, ce n'est quand même pas très fiable (pas assez pour en faire quelque chose d'opposable, en tout cas).
Depuis le début, on fait comme si tout cela allait être résolu, que c'était un problème de mise au point, mais en ce qui me concerne, je ne vois pas comment on pourrait changer cela sauf, peut-être, dans des cas très délimités avec une autre IA chargée de voir si les réponses apportées sont cohérentes avec un corpus validé identifié (par exemple, pour des réponses légales dans un domaine spécifique)
2  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 03/11/2025 à 11:44
Citation Envoyé par Mister Nono Voir le message
Quand une IA donne une réponse, il serait peut-être bien de savoir la probabilité qu'il ait raison
Ce n'est pas possible : les LLM génèrent un mot après l'autre selon des probabilités. Ils n'ont aucune idée de ce qu'ils sont en train décrire.
2  0 
Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 24/10/2025 à 7:40
Donc il a perdu la tête avec ChatGPT et retrouvé l'intelligence avec Gemini.

Il n'y a aucune publicité implicite dans ce cas isolé.
2  1 
Avatar de Mister Nono
Membre chevronné https://www.developpez.com
Le 27/10/2025 à 13:53
Quand la météo indique de la pluie, elle indique souvent le pourcentage que cette affirmation se produise.

Quand une IA donne une réponse, il serait peut-être bien de savoir la probabilité qu'il ait raison : on est dans le domaine des statistiques, non ?
1  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 31/12/2025 à 19:34
Je vous annonce d'avance les mesures qui serony prise :
Contrôle d'identité, censure des IA, et vos discussions sous surveillance ... On commence à connaitre la chanson
1  0 
Avatar de Nym4x
Membre confirmé https://www.developpez.com
Le 02/01/2026 à 7:24
A un moment il faudrait peut être comprendre que l’IA est une technologie prometteuse mais à ne pas mettre entre toutes les mains ou à minima la dépersonnaliser, un disclaimer par exemple:

Cette IA génère des réponses en prédisant statistiquement des mots à partir de données d’entraînement. Elle n’a ni intentions, ni émotions, ni compréhension réelle du monde et certaines de ses réponses peuvent être erronées, obsolètes et même fictives tout en paraissant plausibles.* avec une image de robot.
1  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 31/12/2025 à 15:57
Même solution qu'avec tout ces problèmes d'ia. Ya qu'à ajouter une IA de détection de psychose et une IA thérapeutique ;-)
(Ironie)
0  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 02/01/2026 à 13:39
Citation Envoyé par Artaeus Voir le message
Je vous annonce d'avance les mesures qui serony prise :
Contrôle d'identité, censure des IA, et vos discussions sous surveillance ... On commence à connaitre la chanson
Je me suis dit exactement la même chose en lisant l'article
0  0