IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiments et qui hallucinent

Le , par Patrick Ruiz

4PARTAGES

3  0 
Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent

L'avènement de l'intelligence artificielle a ouvert de nouvelles perspectives dans de nombreux secteurs, y compris celui de la santé mentale. De récentes études font état de ce que de plus en plus d’humains se confient à des thérapeutes IA pour des questions de santé mentale. La tendance surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent. De précédentes publications justifient néanmoins cette mouvance par l’accessibilité des services de mentale gérés par des intelligences artificielles.



Les algorithmes ne sont pas « sages » et n'ont pas de sentiment

ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue. Il ne peut pas dire quand vous vous mentez à vous-même. Il ne sait pas quand la chose que vous n'avez pas dite est la plus importante. Cela met en lumière les limites fondamentales de ces outils. Selon les experts, il faut garder du recul, surtout dans des situations émotionnellement sensibles.

Il y a également une lacune évidente en matière de responsabilité. Si un thérapeute vous donne de mauvais conseils, il est responsable. Si un ami vous induit en erreur, il se soucie au moins de vous. Mais si ChatGPT vous pousse à prendre une décision importante qui ne fonctionne pas, qui blâmez-vous ?

L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses. De plus, elle a tendance à être excessivement optimiste et encourageante, ce qui est utile dans certains scénarios, mais pas toujours ce dont vous avez besoin lorsque vous êtes aux prises avec quelque chose de grave. Les psychologues s'inquiètent du remplacement des relations réelles par des boucles de rétroaction pilotées par l'IA.

Les experts rappellent également qu'un chatbot peut vous donner l'impression d'être « vu » sans vraiment vous comprendre. Le chatbot pourrait vous proposer une conclusion que vous n'avez pas méritée. Il pourrait flatter votre logique alors que vous avez besoin de quelqu'un pour la remettre en question. Et nous ne pouvons pas ignorer la situation dans son ensemble. Il est dans l'intérêt d'OpenAI que les consommateurs utilisent ChatGPT pour tout.



Le choix d’une IA comme thérapeute est d’autant plus surprenant que certains services s’appuient sur des humains pour corriger les erreurs de l’intelligence artificielle

Beaucoup des clients d’Harsh Kumar, développeur web et d'applications basé en Inde, affirment avoir déjà investi une grande partie de leur budget dans des outils de « vibe coding » qui n'ont pas donné les résultats escomptés. Ils finissent ainsi par se rendre compte que dépenser de l'argent pour un développeur humain en vaut la peine, car cela leur évite les maux de tête liés à la tentative de faire réparer le « code merdique » généré par une intelligence artificielle. Kumar explique que ses clients lui apportent souvent des sites web ou des applications générées par une intelligence et qui se sont avérés instables ou totalement inutilisables.

En d’autres termes, « le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur », comme le souligne le CEO de GitHub. Grosso modo, l’intelligence artificielle est à un stade d’évolution tel qu’elle ne saurait servir de raccourci à des personnes qui pensent ne plus avoir à faire usage de leur créativité ou de leur esprit critique.

Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »



C’est la raison pour laquelle certains Etats interdisent la thérapie par IA

Le gouverneur de l'Illinois, JB Pritzker, a promulgué une loi interdisant la thérapie par IA dans l'État. L'Illinois devient ainsi le premier État à réglementer l'utilisation de l'IA dans les services de santé mentale. La loi souligne que seuls les professionnels agréés sont autorisés à offrir des services de conseil dans l'État et interdit aux chatbots ou outils d'IA d'agir en tant que thérapeutes autonomes.

Le projet de loi HB 1806, intitulé « Wellness and Oversight for Psychological Resources Act » (loi sur le bien-être et la surveillance des ressources psychologiques), précise également que les thérapeutes agréés ne peuvent pas utiliser l'IA pour prendre des « décisions thérapeutiques » ou établir une « communication thérapeutique ». Il impose également des restrictions sur la manière dont les professionnels de la santé mentale peuvent utiliser l'IA dans leur travail, en précisant par exemple que son utilisation à des fins de « soutien supplémentaire », comme la gestion des rendez-vous, la facturation ou d'autres tâches administratives, est autorisée.

Dans une déclaration, Bob Morgan, représentant de l'État de l'Illinois, a déclaré : « Nous avons déjà entendu des histoires horribles dans lesquelles l'intelligence artificielle se fait passer pour un thérapeute agréé. Des personnes en situation de crise se sont tournées sans le savoir vers l'IA pour obtenir de l'aide et ont été poussées vers des comportements dangereux, voire mortels. » La loi prévoit des sanctions sévères afin d'éviter de tels résultats, les entreprises ou les particuliers s'exposant à une amende de 10 000 dollars par infraction.

« Cette législation témoigne de notre engagement à protéger le bien-être de nos résidents en garantissant que les services de santé mentale sont fournis par des experts qualifiés qui accordent la priorité absolue aux soins des patients », a déclaré Mario Treto Jr., secrétaire du département des réglementations financières et professionnelles de l'Illinois.

Le projet de loi a été adopté à l'unanimité par la Chambre des représentants et le Sénat de l'Illinois, signe d'un soutien bipartite écrasant. Cette législation est particulièrement remarquable dans la mesure où le plan récemment dévoilé par l'administration Trump en matière d'IA prévoit un moratoire de 10 ans sur toute réglementation de l'IA au niveau des États. Elle intervient également alors qu'OpenAI a déclaré qu'elle améliorait la capacité de ses modèles à détecter la détresse mentale ou émotionnelle et qu'elle demanderait aux utilisateurs de faire une pause lors de conversations anormalement longues.

Et vous ?

L'IA peut-elle vraiment être considérée comme un thérapeute ? La loi se base sur l'idée que seule une personne agréée peut faire de la thérapie. La compassion, l'empathie et le jugement humain sont-ils des qualités qui peuvent être répliquées par une machine, ou sont-ils intrinsèquement humains ?

Les émotions humaines sont-elles trop complexes pour être traitées par une machine, ou est-ce simplement une limite temporaire de l’IA ?

Les psychologues et psychiatres doivent-ils intégrer l’IA comme outil complémentaire ou la rejeter catégoriquement ?

Est-ce que l'interdiction des thérapeutes IA est la première étape vers une régulation plus large de l'IA dans la santé ? On pourrait imaginer des lois similaires pour les diagnostics médicaux assistés par IA.
Vous avez lu gratuitement 628 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2025 à 7:31
Citation Envoyé par Patrick Ruiz Voir le message
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent
Comme pas mal de psy mais c'est moins cher
PS : existe vraiment des "thérapeutes IA"? N'est ce pas juste ce que certains projettent sur les ChatGPT & Co.
ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue.
Les psy payent des études longues pour être empathique, mesuré, avoir de l'instinct et de l'intuition?
En vrai c'est peut être mieux qui se baser sur Freud... Mais quelle devient la différence entre son meilleur pote et son psy (réponse le pote facture pas 70€/h).
L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses.
Que penser des psy prétendent faire revenir des souvenirs enfouis - qui sont parfois des non-souvenirs suggérés.

Fun fact : j'ai vu le psy de ma mère vers mes 10 ans pour régler des problèmes avec l'autorité. Conclusion : Il aidait certainement ma mère mais je l'ai trouvé - à 10 ans - nul à chier. Me posant des questions banales pour me faire dire des évidences.
Scoop : à 10 ans on est pas fini, pourtant on est capable de répondre à un psy et de comprendre là où il veut nous amener.
Et vous payez 70€/h pour ça?
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 04/09/2025 à 17:43
... mais cela reflète tellement notre époque

Faire des "études" et sortir des "articles" bâclés ou carrément faux ou fait à 80% par une IA. Quelle reconnaissance peut trouver dans cela un "scientifique" ou un "chercheur" en pratiquant de la sorte ? Comment fait-il pour soutenir son image le matin devant son miroir ? Vivement que cette "bulle" IA explose, car c'est un véritable poison.

Pourquoi l'être humain a-t-il en lui ce penchant pour transformer les idées les plus géniales qu'il met en pratique en la retournant contre lui même. Cela reste pour moi un mystère. Tant d'inventions ont été détournées de leur but premier, et toujours dans le mauvais sens.

Et concernant l'IA, comment un être humain un rien rationnel peut-il trouver une "bonne idée" de consulter un "psy-IA".

Quelle tristesse... Foutue époque...

Enfin, on n'y changera rien...

BàV et Peace & Love.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/09/2025 à 17:44
Citation Envoyé par Patrick Ruiz Voir le message
Dans une déclaration, Bob Morgan, représentant de l'État de l'Illinois, a déclaré : « Nous avons déjà entendu des histoires horribles dans lesquelles l'intelligence artificielle se fait passer pour un thérapeute agréé. Des personnes en situation de crise se sont tournées sans le savoir vers l'IA pour obtenir de l'aide et ont été poussées vers des comportements dangereux, voire mortels. » La loi prévoit des sanctions sévères afin d'éviter de tels résultats, les entreprises ou les particuliers s'exposant à une amende de 10 000 dollars par infraction.
Là il y a effectivement un problème.
Si l'utilisateur croit parler à un médecin et qu'il parle en réalité à une IA, c'est pas bien.

En revanche si l'utilisateur sait que c'est une IA, et qu'a chaque session l'IA lui dit "Vous devriez aller voir un vrai médecin au lieu de me parler" là ça irait".
C'est mieux que de ne consulter personne et ça peut motiver à aller voir une vraie psy. Ça peut servir d'introduction.

Si une IA se fait passer pour un psychanalyste, là c'est pas très grave, parce que les psychanalystes sont des charlatans, donc ça ne peut pas tellement être pire.
Le truc c'est qu'en principe on paie un psychanalyste en liquide, dans la tradition, et que ça va être difficile de donner du liquide à un algorithme.
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 04/09/2025 à 19:15
Citation Envoyé par OuftiBoy Voir le message
Faire des "études" et sortir des "articles" bâclés ou carrément faux ou fait à 80% par une IA. Quelle reconnaissance peut trouver dans cela un "scientifique" ou un "chercheur" en pratiquant de la sorte ? Comment fait-il pour soutenir son image le matin devant son miroir ?
le salaire doit compenser cette peine (enfin j'espere !).

Citation Envoyé par OuftiBoy Voir le message
Vivement que cette "bulle" IA explose, car c'est un véritable poison.
un truc utilisé par plus de 80% des métiers du tertiaires et qui en redemande encore plus (j'en fait partie), ça va éclater mais pas dans le sens ou tu penses.
d'ici 10ans une bonne partie des salariés vont se faire éclater et se faire remplacer par l'ia (statistiquement j'en ferai surement partie malgré mes efforts pour l'éviter).

D'ici la faut soit etre dans la bonne équipe qui va rester et investir un max pour s'assurer de sa liberté financière.
au pire j'ai tort, vous aurez juste un bon portefeuille et une belle amélioration de votre carrière donc vous perdez pas grand chose. Voir même atteint le fire et vous mettre en retraite à 40ans.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/09/2025 à 8:19
Citation Envoyé par totozor Voir le message
Mais quelle devient la différence entre son meilleur pote et son psy (réponse le pote facture pas 70€/h).
  • Il y a des choses que tu peux dire à ta psy que tu ne peux pas dire à ton meilleur ami, exemple : :
    Une fille a régulièrement des relations sexuelles avec le mari de sa meilleure amie (elle peut le dire à sa psy mais pas à sa meilleure amie, enfin elle peut, mais ça va démarrer une conversation chiante, donc autant éviter).
  • J'imagine qu'une psy va te poser plus de question sur ton enfance et tes parents que ton meilleur ami.
  • Une psychiatre peut prescrire des médicaments (pas une psychologue, pas une psychanalyste).


Et ce serait bizarre de demander à un ami "pose moi des questions sur ma vie pendant 1h".

Citation Envoyé par totozor Voir le message
Que penser des psy prétendent faire revenir des souvenirs enfouis
Si la psy te donne du LSD, c'est legit. Sinon c'est n'importe quoi…
Pour que ce soit sérieux il faut des psychotropes.

Des psychotropes en clinique?
Des scientifiques suisses ont suggéré mercredi d'associer la consommation de psychotropes, comme le LSD, la kétamine ou les champignons hallucinogènes, et la psychothérapie afin de soigner des personnes souffrant de dépression, de troubles compulsifs ou de douleurs chroniques.
(...)
« Les psychotropes peuvent offrir aux patients de nouvelles perspectives, notamment quand les souvenirs enfouis remontent à la surface. Ils peuvent alors travailler à partir de cette expérience. »
Une citation deFranz Vollenweider, psychiatre et chercheur à l'hôpital psychiatrique universitaire de Zurich
=====
Si tu crois parler à un médecin et que tu parles à une IA ça craint.
Si tu sais que tu parles à un algorithme et qu'il te dit qu'il n'est pas qualifié, ça va.
0  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2025 à 9:31


Citation Envoyé par calvaire Voir le message
le salaire doit compenser cette peine (enfin j'espere !).
Je comprend bien, le salaire doit aider, mais ça ne doit pas empêcher ces "chercheurs/scientifiques" à ressentir, au fond d'eux même, un malaise a agir de la sorte... Si pas maintenant, la réalité les rattrapera. Enfin, c'est ce que je pense. Derrière la "facade", il y a la brique, et lorsque la brique s'effondre, la "facade" part avec...

Citation Envoyé par calvaire Voir le message
Un truc utilisé par plus de 80% des métiers du tertiaires et qui en redemande encore plus (j'en fait partie), ça va éclater mais pas dans le sens ou tu penses. D'ici 10ans une bonne partie des salariés vont se faire éclater et se faire remplacer par l'ia (statistiquement j'en ferai surement partie malgré mes efforts pour l'éviter).
Peut-être que je me trompe, peut-être as-tu raison. Il semble évident que pour l'instant, à part dans certains domaines bien précis, l'IA n'apporte pas le ROI attendu. Plusieurs domaines, dont ont dit qu'ils sont propulsé par l'IA, sont en fait utilisés depuis des années (l'imagerie médical par exemple). Une IA dédicacée pour une tâche bien spécifique, entrainée avec des données validées, peut fournir un bon résultat, mais une IAG, entrainée avec tout et n'importe quoi, des entrées non-validée, ne saura que donner un résultat médiocre.[/QUOTE]

Citation Envoyé par calvaire Voir le message
D'ici la faut soit etre dans la bonne équipe qui va rester et investir un max pour s'assurer de sa liberté financière.
au pire j'ai tort, vous aurez juste un bon portefeuille et une belle amélioration de votre carrière donc vous perdez pas grand chose. Voir même atteint le fire et vous mettre en retraite à 40ans.
Ce n'est malheureusement pas possible pour tout le monde. Certains (très peu) en tireront profit, et d'autres (très nombreux), y perdront énormément. Comme toujours en fait. Si l'IAG arrivent un jour a pouvoir être utilisée avec un taux de bonne réponse à 100%, cela provoquera un effondrement du savoir, et la société se terminera comme dans "Idiocracy", un film que je recommande à tout le monde de voir, car c'est vers cela qu'on se dirige.

C'est mon avis, sans prétendre que j'ai raison, mais c'est ce que je crains. Et au final, il n'y aura même plus de gens compétents pour "bien questionner l'IA" (trouver le bon prompt).

Bàv et Peace & Love.
0  0 
Avatar de tatayo
Expert éminent sénior https://www.developpez.com
Le 05/09/2025 à 9:59
Code : Sélectionner tout
C’est la raison pour laquelle certains Etats interdisent la thérapie par IA
Et dire que Trump veut que l'I.A. décide qui peut être soigné ou pas…
Cherchez l'erreur (Trump ?).

Tatayo.
1  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 05/09/2025 à 11:27
Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
S'ils font confiance à l'IA, c'est qu'ils ont vraiment besoin de consulter un psy !
1  1