IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiments et qui hallucinent

Le , par Patrick Ruiz

4PARTAGES

3  0 
Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent

L'avènement de l'intelligence artificielle a ouvert de nouvelles perspectives dans de nombreux secteurs, y compris celui de la santé mentale. De récentes études font état de ce que de plus en plus d’humains se confient à des thérapeutes IA pour des questions de santé mentale. La tendance surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent. De précédentes publications justifient néanmoins cette mouvance par l’accessibilité des services de mentale gérés par des intelligences artificielles.



Les algorithmes ne sont pas « sages » et n'ont pas de sentiment

ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue. Il ne peut pas dire quand vous vous mentez à vous-même. Il ne sait pas quand la chose que vous n'avez pas dite est la plus importante. Cela met en lumière les limites fondamentales de ces outils. Selon les experts, il faut garder du recul, surtout dans des situations émotionnellement sensibles.

Il y a également une lacune évidente en matière de responsabilité. Si un thérapeute vous donne de mauvais conseils, il est responsable. Si un ami vous induit en erreur, il se soucie au moins de vous. Mais si ChatGPT vous pousse à prendre une décision importante qui ne fonctionne pas, qui blâmez-vous ?

L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses. De plus, elle a tendance à être excessivement optimiste et encourageante, ce qui est utile dans certains scénarios, mais pas toujours ce dont vous avez besoin lorsque vous êtes aux prises avec quelque chose de grave. Les psychologues s'inquiètent du remplacement des relations réelles par des boucles de rétroaction pilotées par l'IA.

Les experts rappellent également qu'un chatbot peut vous donner l'impression d'être « vu » sans vraiment vous comprendre. Le chatbot pourrait vous proposer une conclusion que vous n'avez pas méritée. Il pourrait flatter votre logique alors que vous avez besoin de quelqu'un pour la remettre en question. Et nous ne pouvons pas ignorer la situation dans son ensemble. Il est dans l'intérêt d'OpenAI que les consommateurs utilisent ChatGPT pour tout.



Le choix d’une IA comme thérapeute est d’autant plus surprenant que certains services s’appuient sur des humains pour corriger les erreurs de l’intelligence artificielle

Beaucoup des clients d’Harsh Kumar, développeur web et d'applications basé en Inde, affirment avoir déjà investi une grande partie de leur budget dans des outils de « vibe coding » qui n'ont pas donné les résultats escomptés. Ils finissent ainsi par se rendre compte que dépenser de l'argent pour un développeur humain en vaut la peine, car cela leur évite les maux de tête liés à la tentative de faire réparer le « code merdique » généré par une intelligence artificielle. Kumar explique que ses clients lui apportent souvent des sites web ou des applications générées par une intelligence et qui se sont avérés instables ou totalement inutilisables.

En d’autres termes, « le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur », comme le souligne le CEO de GitHub. Grosso modo, l’intelligence artificielle est à un stade d’évolution tel qu’elle ne saurait servir de raccourci à des personnes qui pensent ne plus avoir à faire usage de leur créativité ou de leur esprit critique.

Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »



C’est la raison pour laquelle certains Etats interdisent la thérapie par IA

Le gouverneur de l'Illinois, JB Pritzker, a promulgué une loi interdisant la thérapie par IA dans l'État. L'Illinois devient ainsi le premier État à réglementer l'utilisation de l'IA dans les services de santé mentale. La loi souligne que seuls les professionnels agréés sont autorisés à offrir des services de conseil dans l'État et interdit aux chatbots ou outils d'IA d'agir en tant que thérapeutes autonomes.

Le projet de loi HB 1806, intitulé « Wellness and Oversight for Psychological Resources Act » (loi sur le bien-être et la surveillance des ressources psychologiques), précise également que les thérapeutes agréés ne peuvent pas utiliser l'IA pour prendre des « décisions thérapeutiques » ou établir une « communication thérapeutique ». Il impose également des restrictions sur la manière dont les professionnels de la santé mentale peuvent utiliser l'IA dans leur travail, en précisant par exemple que son utilisation à des fins de « soutien supplémentaire », comme la gestion des rendez-vous, la facturation ou d'autres tâches administratives, est autorisée.

Dans une déclaration, Bob Morgan, représentant de l'État de l'Illinois, a déclaré : « Nous avons déjà entendu des histoires horribles dans lesquelles l'intelligence artificielle se fait passer pour un thérapeute agréé. Des personnes en situation de crise se sont tournées sans le savoir vers l'IA pour obtenir de l'aide et ont été poussées vers des comportements dangereux, voire mortels. » La loi prévoit des sanctions sévères afin d'éviter de tels résultats, les entreprises ou les particuliers s'exposant à une amende de 10 000 dollars par infraction.

« Cette législation témoigne de notre engagement à protéger le bien-être de nos résidents en garantissant que les services de santé mentale sont fournis par des experts qualifiés qui accordent la priorité absolue aux soins des patients », a déclaré Mario Treto Jr., secrétaire du département des réglementations financières et professionnelles de l'Illinois.

Le projet de loi a été adopté à l'unanimité par la Chambre des représentants et le Sénat de l'Illinois, signe d'un soutien bipartite écrasant. Cette législation est particulièrement remarquable dans la mesure où le plan récemment dévoilé par l'administration Trump en matière d'IA prévoit un moratoire de 10 ans sur toute réglementation de l'IA au niveau des États. Elle intervient également alors qu'OpenAI a déclaré qu'elle améliorait la capacité de ses modèles à détecter la détresse mentale ou émotionnelle et qu'elle demanderait aux utilisateurs de faire une pause lors de conversations anormalement longues.

Et vous ?

L'IA peut-elle vraiment être considérée comme un thérapeute ? La loi se base sur l'idée que seule une personne agréée peut faire de la thérapie. La compassion, l'empathie et le jugement humain sont-ils des qualités qui peuvent être répliquées par une machine, ou sont-ils intrinsèquement humains ?

Les émotions humaines sont-elles trop complexes pour être traitées par une machine, ou est-ce simplement une limite temporaire de l’IA ?

Les psychologues et psychiatres doivent-ils intégrer l’IA comme outil complémentaire ou la rejeter catégoriquement ?

Est-ce que l'interdiction des thérapeutes IA est la première étape vers une régulation plus large de l'IA dans la santé ? On pourrait imaginer des lois similaires pour les diagnostics médicaux assistés par IA.
Vous avez lu gratuitement 887 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 04/09/2025 à 17:43
... mais cela reflète tellement notre époque

Faire des "études" et sortir des "articles" bâclés ou carrément faux ou fait à 80% par une IA. Quelle reconnaissance peut trouver dans cela un "scientifique" ou un "chercheur" en pratiquant de la sorte ? Comment fait-il pour soutenir son image le matin devant son miroir ? Vivement que cette "bulle" IA explose, car c'est un véritable poison.

Pourquoi l'être humain a-t-il en lui ce penchant pour transformer les idées les plus géniales qu'il met en pratique en la retournant contre lui même. Cela reste pour moi un mystère. Tant d'inventions ont été détournées de leur but premier, et toujours dans le mauvais sens.

Et concernant l'IA, comment un être humain un rien rationnel peut-il trouver une "bonne idée" de consulter un "psy-IA".

Quelle tristesse... Foutue époque...

Enfin, on n'y changera rien...

BàV et Peace & Love.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/09/2025 à 17:44
Citation Envoyé par Patrick Ruiz Voir le message
Dans une déclaration, Bob Morgan, représentant de l'État de l'Illinois, a déclaré : « Nous avons déjà entendu des histoires horribles dans lesquelles l'intelligence artificielle se fait passer pour un thérapeute agréé. Des personnes en situation de crise se sont tournées sans le savoir vers l'IA pour obtenir de l'aide et ont été poussées vers des comportements dangereux, voire mortels. » La loi prévoit des sanctions sévères afin d'éviter de tels résultats, les entreprises ou les particuliers s'exposant à une amende de 10 000 dollars par infraction.
Là il y a effectivement un problème.
Si l'utilisateur croit parler à un médecin et qu'il parle en réalité à une IA, c'est pas bien.

En revanche si l'utilisateur sait que c'est une IA, et qu'a chaque session l'IA lui dit "Vous devriez aller voir un vrai médecin au lieu de me parler" là ça irait".
C'est mieux que de ne consulter personne et ça peut motiver à aller voir une vraie psy. Ça peut servir d'introduction.

Si une IA se fait passer pour un psychanalyste, là c'est pas très grave, parce que les psychanalystes sont des charlatans, donc ça ne peut pas tellement être pire.
Le truc c'est qu'en principe on paie un psychanalyste en liquide, dans la tradition, et que ça va être difficile de donner du liquide à un algorithme.
0  0