
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent
L'avènement de l'intelligence artificielle a ouvert de nouvelles perspectives dans de nombreux secteurs, y compris celui de la santé mentale. De récentes études font état de ce que de plus en plus d’humains se confient à des thérapeutes IA pour des questions de santé mentale. La tendance surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent. De précédentes publications justifient néanmoins cette mouvance par l’accessibilité des services de mentale gérés par des intelligences artificielles.
AI is transforming healthcare by improving access, affordability, prevention, and improving patient outcomes. However, it is not a doctor, and it is not a therapist.
— Rep. Mariannette Miller-Meeks, M.D. (@RepMMM) September 3, 2025
Unregulated chatbots can mislead, and even harm. We need clear standards so innovation saves lives without… pic.twitter.com/jU2fXLiOV6
Les algorithmes ne sont pas « sages » et n'ont pas de sentiment
ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue. Il ne peut pas dire quand vous vous mentez à vous-même. Il ne sait pas quand la chose que vous n'avez pas dite est la plus importante. Cela met en lumière les limites fondamentales de ces outils. Selon les experts, il faut garder du recul, surtout dans des situations émotionnellement sensibles.
Il y a également une lacune évidente en matière de responsabilité. Si un thérapeute vous donne de mauvais conseils, il est responsable. Si un ami vous induit en erreur, il se soucie au moins de vous. Mais si ChatGPT vous pousse à prendre une décision importante qui ne fonctionne pas, qui blâmez-vous ?
L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses. De plus, elle a tendance à être excessivement optimiste et encourageante, ce qui est utile dans certains scénarios, mais pas toujours ce dont vous avez besoin lorsque vous êtes aux prises avec quelque chose de grave. Les psychologues s'inquiètent du remplacement des relations réelles par des boucles de rétroaction pilotées par l'IA.
Les experts rappellent également qu'un chatbot peut vous donner l'impression d'être « vu » sans vraiment vous comprendre. Le chatbot pourrait vous proposer une conclusion que vous n'avez pas méritée. Il pourrait flatter votre logique alors que vous avez besoin de quelqu'un pour la remettre en question. Et nous ne pouvons pas ignorer la situation dans son ensemble. Il est dans l'intérêt d'OpenAI que les consommateurs utilisent ChatGPT pour tout.
AI ≠ therapist ❌
— Ayodeji Afolabi (@Ayo_Af) August 16, 2025
🔘Sycophancy: bots tell you what you want to hear, not what you need
🔘Hallucinations: when facts fail, they just make them up
Human healing needs real empathy—seek a licensed pro first! pic.twitter.com/UaMlBcnUfc
Le choix d’une IA comme thérapeute est d’autant plus surprenant que certains services s’appuient sur des humains pour corriger les erreurs de l’intelligence artificielle
Beaucoup des clients d’Harsh Kumar, développeur web et d'applications basé en Inde, affirment avoir déjà investi une grande partie de leur budget dans des outils de « vibe coding » qui n'ont pas donné les résultats escomptés. Ils finissent ainsi par se rendre compte que dépenser de l'argent pour un développeur humain en vaut la peine, car cela leur évite les maux de tête liés à la tentative de faire réparer le « code merdique » généré par une intelligence artificielle. Kumar explique que ses clients lui apportent souvent des sites web ou des applications générées par une intelligence et qui se sont avérés instables ou totalement inutilisables.
En d’autres termes, « le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur », comme le souligne le CEO de GitHub. Grosso modo, l’intelligence artificielle est à un stade d’évolution tel qu’elle ne saurait servir de raccourci à des personnes qui pensent ne plus avoir à faire usage de leur créativité ou de leur esprit critique.
Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »
Aaron Levie says the future of work has flipped.
— vitrupo (@vitrupo) July 15, 2025
We thought AI would fix our mistakes.
Now it makes the first draft. We QA what comes back.
“The human's job is to fix the AI errors, and that's the new way we are going to work.” pic.twitter.com/xj504JPV3k
C’est la raison pour laquelle certains Etats interdisent la thérapie par IA
Le gouverneur de l'Illinois, JB Pritzker, a promulgué une loi interdisant la thérapie par IA dans l'État. L'Illinois devient ainsi le premier État à réglementer l'utilisation de l'IA dans les services de santé mentale. La loi souligne que seuls les professionnels agréés sont autorisés à offrir des services de conseil dans l'État et interdit aux chatbots ou outils d'IA d'agir en tant que thérapeutes autonomes.
Le projet de loi HB 1806, intitulé « Wellness and Oversight for Psychological Resources Act » (loi sur le bien-être et la surveillance des ressources psychologiques), précise également que les thérapeutes agréés ne peuvent pas utiliser l'IA pour prendre des « décisions thérapeutiques » ou établir une « communication thérapeutique ». Il impose également des restrictions sur la manière dont les professionnels de la santé mentale peuvent utiliser l'IA dans leur travail, en précisant par exemple que son utilisation à des fins de « soutien supplémentaire », comme la gestion des rendez-vous, la facturation ou d'autres tâches administratives, est autorisée.
Dans une déclaration, Bob Morgan, représentant de l'État de l'Illinois, a déclaré : « Nous avons déjà entendu des histoires horribles dans lesquelles l'intelligence artificielle se fait passer pour un thérapeute agréé. Des personnes en situation de crise se sont tournées sans le savoir vers l'IA pour obtenir de l'aide et ont été poussées vers des comportements dangereux, voire mortels. » La loi prévoit des sanctions sévères afin d'éviter de tels résultats, les entreprises ou les particuliers s'exposant à une amende de 10 000 dollars par infraction.
« Cette législation témoigne de notre engagement à protéger le bien-être de nos résidents en garantissant que les services de santé mentale sont fournis par des experts qualifiés qui accordent la priorité absolue aux soins des patients », a déclaré Mario Treto Jr., secrétaire du département des réglementations financières et professionnelles de l'Illinois.
Le projet de loi a été adopté à l'unanimité par la Chambre des représentants et le Sénat de l'Illinois, signe d'un soutien bipartite écrasant. Cette législation est particulièrement remarquable dans la mesure où le plan récemment dévoilé par l'administration Trump en matière d'IA prévoit un moratoire de 10 ans sur toute réglementation de l'IA au niveau des États. Elle intervient également alors qu'OpenAI a déclaré qu'elle améliorait la capacité de ses modèles à détecter la détresse mentale ou émotionnelle et qu'elle demanderait aux utilisateurs de faire une pause lors de conversations anormalement longues.
Et vous ?




Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.