IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiments et qui hallucinent

Le , par Patrick Ruiz

52PARTAGES

3  0 
Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent

L'avènement de l'intelligence artificielle a ouvert de nouvelles perspectives dans de nombreux secteurs, y compris celui de la santé mentale. De récentes études font état de ce que de plus en plus d’humains se confient à des thérapeutes IA pour des questions de santé mentale. La tendance surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent. De précédentes publications justifient néanmoins cette mouvance par l’accessibilité des services de mentale gérés par des intelligences artificielles.



Les algorithmes ne sont pas « sages » et n'ont pas de sentiment

ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue. Il ne peut pas dire quand vous vous mentez à vous-même. Il ne sait pas quand la chose que vous n'avez pas dite est la plus importante. Cela met en lumière les limites fondamentales de ces outils. Selon les experts, il faut garder du recul, surtout dans des situations émotionnellement sensibles.

Il y a également une lacune évidente en matière de responsabilité. Si un thérapeute vous donne de mauvais conseils, il est responsable. Si un ami vous induit en erreur, il se soucie au moins de vous. Mais si ChatGPT vous pousse à prendre une décision importante qui ne fonctionne pas, qui blâmez-vous ?

L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses. De plus, elle a tendance à être excessivement optimiste et encourageante, ce qui est utile dans certains scénarios, mais pas toujours ce dont vous avez besoin lorsque vous êtes aux prises avec quelque chose de grave. Les psychologues s'inquiètent du remplacement des relations réelles par des boucles de rétroaction pilotées par l'IA.

Les experts rappellent également qu'un chatbot peut vous donner l'impression d'être « vu » sans vraiment vous comprendre. Le chatbot pourrait vous proposer une conclusion que vous n'avez pas méritée. Il pourrait flatter votre logique alors que vous avez besoin de quelqu'un pour la remettre en question. Et nous ne pouvons pas ignorer la situation dans son ensemble. Il est dans l'intérêt d'OpenAI que les consommateurs utilisent ChatGPT pour tout.



Le choix d’une IA comme thérapeute est d’autant plus surprenant que certains services s’appuient sur des humains pour corriger les erreurs de l’intelligence artificielle

Beaucoup des clients d’Harsh Kumar, développeur web et d'applications basé en Inde, affirment avoir déjà investi une grande partie de leur budget dans des outils de « vibe coding » qui n'ont pas donné les résultats escomptés. Ils finissent ainsi par se rendre compte que dépenser de l'argent pour un développeur humain en vaut la peine, car cela leur évite les maux de tête liés à la tentative de faire réparer le « code merdique » généré par une intelligence artificielle. Kumar explique que ses clients lui apportent souvent des sites web ou des applications générées par une intelligence et qui se sont avérés instables ou totalement inutilisables.

En d’autres termes, « le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur », comme le souligne le CEO de GitHub. Grosso modo, l’intelligence artificielle est à un stade d’évolution tel qu’elle ne saurait servir de raccourci à des personnes qui pensent ne plus avoir à faire usage de leur créativité ou de leur esprit critique.

Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »



C’est la raison pour laquelle certains Etats interdisent la thérapie par IA

Le gouverneur de l'Illinois, JB Pritzker, a promulgué une loi interdisant la thérapie par IA dans l'État. L'Illinois devient ainsi le premier État à réglementer l'utilisation de l'IA dans les services de santé mentale. La loi souligne que seuls les professionnels agréés sont autorisés à offrir des services de conseil dans l'État et interdit aux chatbots ou outils d'IA d'agir en tant que thérapeutes autonomes.

Le projet de loi HB 1806, intitulé « Wellness and Oversight for Psychological Resources Act » (loi sur le bien-être et la surveillance des ressources psychologiques), précise également que les thérapeutes agréés ne peuvent pas utiliser l'IA pour prendre des « décisions thérapeutiques » ou établir une « communication thérapeutique ». Il impose également des restrictions sur la manière dont les professionnels de la santé mentale peuvent utiliser l'IA dans leur travail, en précisant par exemple que son utilisation à des fins de « soutien supplémentaire », comme la gestion des rendez-vous, la facturation ou d'autres tâches administratives, est autorisée.

Dans une déclaration, Bob Morgan, représentant de l'État de l'Illinois, a déclaré : « Nous avons déjà entendu des histoires horribles dans lesquelles l'intelligence artificielle se fait passer pour un thérapeute agréé. Des personnes en situation de crise se sont tournées sans le savoir vers l'IA pour obtenir de l'aide et ont été poussées vers des comportements dangereux, voire mortels. » La loi prévoit des sanctions sévères afin d'éviter de tels résultats, les entreprises ou les particuliers s'exposant à une amende de 10 000 dollars par infraction.

« Cette législation témoigne de notre engagement à protéger le bien-être de nos résidents en garantissant que les services de santé mentale sont fournis par des experts qualifiés qui accordent la priorité absolue aux soins des patients », a déclaré Mario Treto Jr., secrétaire du département des réglementations financières et professionnelles de l'Illinois.

Le projet de loi a été adopté à l'unanimité par la Chambre des représentants et le Sénat de l'Illinois, signe d'un soutien bipartite écrasant. Cette législation est particulièrement remarquable dans la mesure où le plan récemment dévoilé par l'administration Trump en matière d'IA prévoit un moratoire de 10 ans sur toute réglementation de l'IA au niveau des États. Elle intervient également alors qu'OpenAI a déclaré qu'elle améliorait la capacité de ses modèles à détecter la détresse mentale ou émotionnelle et qu'elle demanderait aux utilisateurs de faire une pause lors de conversations anormalement longues.

Et vous ?

L'IA peut-elle vraiment être considérée comme un thérapeute ? La loi se base sur l'idée que seule une personne agréée peut faire de la thérapie. La compassion, l'empathie et le jugement humain sont-ils des qualités qui peuvent être répliquées par une machine, ou sont-ils intrinsèquement humains ?

Les émotions humaines sont-elles trop complexes pour être traitées par une machine, ou est-ce simplement une limite temporaire de l’IA ?

Les psychologues et psychiatres doivent-ils intégrer l’IA comme outil complémentaire ou la rejeter catégoriquement ?

Est-ce que l'interdiction des thérapeutes IA est la première étape vers une régulation plus large de l'IA dans la santé ? On pourrait imaginer des lois similaires pour les diagnostics médicaux assistés par IA.
Vous avez lu gratuitement 705 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 16/09/2025 à 7:30
Citation Envoyé par Ryu2000 Voir le message
Si le travail est trop dure et ne paie pas assez ils peuvent chercher un autre job moins chiant.
Un génie :
Tu as faim? Mange!
Tu es pauvre? Enrichi toi!
Tu travailles pas? Traverse la rue!
Tu as froid? Trouve un toit!
Tu es pas assez payé? Déménage, fais des études et traverse la rue.
Tu pollues? Arrête!

Rien que ça.
Ryu, notre sauveur.
Il a réponse à tout.
9  4 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2025 à 18:03
Je ne suis pas trop d'accord...

Citation Envoyé par Matthieu Vergne Voir le message
Tant que ça s'apparente à du placebo, c'est à dire qu'il y a juste besoin d'une oreille à l'écoute sans réellement avoir besoin d'acte médical, ça me va très bien d'utiliser l'IA
Vu comment l'IA a tendance a "Halluciner", j'ai un gros doute sur la pertinence de la réponse d'une IA pour répondre ou proposer des solutions à une personne dépressive ou suicidaire... Cela me semble extrêmement dangereux même... Si quelqu'un ressent le besoin de consulter un psy, et que le rdv qu'on lui propose est trop lointain, et se "tourne" vers une IA en attendant, les dégâts sur la personne peuvent être dévastateurs. Qu'une IA "tente" d'apporter une aide à une personne "fragile" devrait selon moi même être interdit.

Mais, ce n'est que mon avis...

BàV et Peace & Love.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 05/09/2025 à 11:27
Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
S'ils font confiance à l'IA, c'est qu'ils ont vraiment besoin de consulter un psy !
3  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 11/09/2025 à 13:25
calvaire,

Je respecte ton point de vue, mais...

Citation Envoyé par calvaire Voir le message
ou au contraire, une ia qui apporte des conseils/idées rationnels à la demande, au moment ou la personne en a le plus besoin (et pas devoir attendre le rdv), que ce soit à 10h du mat ou 3h du matin. Ca peut être très bénéfique.
Un peu comme l'apple watch qui détecte de l'hyper tension ou un problème cardiaque, pas besoin d'attendre le checkup annuel du médecin.

c'est une médecine accessible au plus grand nombre, personnalisé, et avec un suivie constant.
... On est encore loin d'avoir une IA dont on peut être certains qu'elle réponde de manière "rationnels". Il est peut-être plus préférable que cette personne participe à des discussions sur certains forums qui sont spécialisés dans ce domaine. Ok, il faut trouver le bon forum, tout comme il faudrait trouver la bonne IA.

Dire qu'une IA peut être une "médecine", "personnalisée", proposant "un suivi" constant, c'est (à mon avis, chacun à le sien) aller un peu vite au vu de la "qualité" des réponses des IAs actuellement. Une personne "fragile" a besoin d'un contact "humain" avant tout. Là où l'IA pourrait être utile, c'est de "repérer" qu'une personne est "fragile" (suivant ce qu'il visite, les questions qu'il pose, etc...) et lui proposer des forums de discutions "sérieux/reconnu".

Mais ce n'est que mon avis.

BàT et Peace & Love.
2  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 15/09/2025 à 9:18
Citation Envoyé par OuftiBoy Voir le message
calvaire
Non, je ne suis pas convaincu, je suis même persuadé du contraire. Nous vivons une drôle d'époque, où l'on peut communiquer en quelque seconde avec quelqu'un qu'on a jamais rencontré, qui vit à des centaines si pas des milliers de km, mais on est incapable de communiquer avec ses voisins. Voir des gens qui se réunissent pour boire en verre, et voir chacun de ces derniers les yeux rivés sur leur "smartphone", c'est d'une tristesse sans nom.
France Info m'a peut etre lu, il a justement publié un article la dessus hier.
Oui avoir une vie social ca coute de l'argent, vous peut être pas et tant mieux pour vous mais je le constate moi même et la j'ai une source fraiche à montrer.

chatgpt c'est gratuit et ca réponds toujours 24h/24 à la demande/quand on en a le plus besoin.
Vous avez peut etre la chance d'avoir des potes/des forums qui vous répondrons 24h/24 et vous coute 0€, ca existe je ne le nie pas mais j'ai un doute que ce soit une norme.

Si tu couches avec les meufs de tous tes potes tu as pas besoin d'un psy mais d'une tarte dans la gueule.
je ne serais pas surpris que la majorité des tromperies ce soit en 1 les collègues de travail et en 2 le cercle des ami(e)s.
Pour tromper il faut rencontrer, y'a les sites spécialisés ok, mais sinon c'est au boulot ou en soirée avec des potes, avec parfois même le conjoint cocu à 10m.

l'infidélité touche 50% des couples, donc j'ai envie de dire que la moitiés des amies/collegues de travail sont potentiellement concerné.
3  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 17/09/2025 à 13:11
Citation Envoyé par Ryu2000 Voir le message
Il ne faut pas être un grammar nazi et tolérer les gens qui font des fautes. (parce que la grammaire c'est extrêmement compliqué)
Absolument pas. Je vais te dire un truc, pour ma part, faire des fautes d'orthographe et de grammaire, ça a été mon lot pendant des années au collège.
Mais, j'ai tout fait pour me corriger, et aujourd'hui, bien sûr il m'arrive encore d'en faire, mais je remercie chaleureusement ceux qui me corrigent. Et je pense que faire des fautes et trouver cela normal, est une preuve de fainéantise et de mépris du lecteur. Il n'y a pas de "grammar nazi", juste des "jenfoutistes" imbéciles qui n'ont aucun respect des autres.

Quand je fais du recrutement, les fautes de français sur une lettre de motivation ou sur un CV sont clairement éliminatoires. Si le candidat n'est pas capable de fournir un effort pour écrire une page ou deux correctement, alors il ne doit pas être très consciencieux dans son boulot. D'autant plus qu'aujourd'hui, contrairement à mon époque, il y a des correcteurs orthographiques et grammaticaux qui mâchent le travail de relecture.
Et, si j'ai un soupçon d'utilisation d'une IA pour écrire le CV ou la lettre, c'est poubelle direct !
6  4 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 17/09/2025 à 16:58
Ryu et Gluups,

@Ryu2000:
À la base je voulais juste faire une critique du monde capitaliste, en sous entendant qu'aujourd'hui les gens étaient obligé d'accepter des métiers difficiles et mal payé pour survivre.
Je ne suis ni pour ni contre le capitalisme, mais bien avant et depuis toujours, une grande majorité des gens étaient et sont toujours, "obligé d'accepter des métier difficiles et mal payé pour survivre". On peut retourner le problème dans tous les sens, mais de tout temps et sous toute formes de régimes, il y a toujours eu une majorité de gens qui travaillaient pour une minorité...

@Gluups:
Ça a l'air passionnant, comme boulot. Merci pour la suggestion.
Tout le monde n'a pas forcément la chance de "choisir" son boulot... Et tous les boulots ne sont pas passionnants... Il y a même des boulots qui sont "passionnants" pour quelqu'un mais "sans intérêt" pour d'autres...

BàV et Peace & Love.
3  1 
Avatar de tatayo
Expert éminent sénior https://www.developpez.com
Le 05/09/2025 à 9:59
Code : Sélectionner tout
C’est la raison pour laquelle certains Etats interdisent la thérapie par IA
Et dire que Trump veut que l'I.A. décide qui peut être soigné ou pas…
Cherchez l'erreur (Trump ?).

Tatayo.
2  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 11/09/2025 à 0:09
Matthieu Vergne,

Citation Envoyé par Matthieu Vergne Voir le message
Je ne vois pas en quoi être dépressif ou suicidaire est une situation pouvant se contenter d'un placebo... Tout l'objet de mon post est justement de dire qu'il y a des tas de situations où il s'agit d'avoir une oreille à l'écoute uniquement, donc les réponses en elle-même on peu d'importance, et donc les hallucinations peu d'impact. Des réponses génériques étant suffisantes pour donner une vue différente qui permet de relativiser.
Chacun peut avoir son avis, on n'est pas obligé d'être d'accord. Un dépressif ou un suicidaire ne réagit pas forcément rationnellement. Il peut consulter une IA pour chercher des raisons à son mal-être, ne va pas forcément poser des questions à la bonne IA, ou rentré un "prompt" qui peut être mal compris par une IA, et si l'IA "hallucine" est lui répond: "statistiquement, dans cas comme le votre, le suicide est la meilleur option"...

Enfin, bref, chacun a son avis.

BàV et Peace & Love.
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 11/09/2025 à 8:59
Citation Envoyé par Ryu2000 Voir le message
Quand tu fais du sport le corps secrète des hormones comme : endorphine, dopamine, sérotonine.
Donc tu te sens bien et ça peut finir par être addictif. Il y en a qui sont triste quand ils ne peuvent pas faire leur séance de musculation.
Oui je connais ça, pour d'autres sports.
C'est un rapport malsain au sport, à traiter comme une addiction de mon point de vue.
Pendant mes études il m'est arrivé de partir faire un tour de 2h à 22h en pleine semaine d'examen.
C'est le mieux pour rester en forme le plus longtemps possible.
C'est le mieux pour les os, pour le cœur. C'est le plus complet. (aucun autre sport ne peut faire travailler autant de muscles)
Bon après il ne faut pas faire n'importe quoi non plus, parce qu'il y a moyen de se blesser, il faut adapter ses mouvements à sa morphologie, tout le monde ne doit pas faire le même mouvement, sinon y'en a qui vont se blesser.
Je trouve que c'est assez faux.
La musculation a rarement une approche complète de la musculature et oublie l'aspect fonctionnel du corps ce que font tous les autres.
Les autres sport amènent "naturellement" à la musculature optimale pour la pratique.
Il faut de la discipline pour y aller, mais une fois que tu y es c'est bon, tu mets des écouteurs ou un casque, de la musique énervé et ça va tout seul.
Clairement pas pour moi, chaque changement de machine est une bonne occasion de rentrer chez moi...
Dans le futur il existera peut-être une IA capable d'analyser la morphologie d'une personne pour lui dire quels mouvements ne pas faire.
En principe il faut se filmer quand on fait un mouvement, puis regarder la vidéo pour voir si il y a des problèmes dans l'exécution.
Ce serait cool qu'une IA puisse être capable d'identifier les problèmes.
Je préfère un coach (qui utilise aussi la video) et qui sais comment me motiver, ce qui n'est pas ne mince affaire.
1  0