ChatGPT est devenu le thérapeute idéal pour de nombreuses personnes. Le chatbot semble avoir de l'empathie et les utilisateurs pensent qu'il est aussi bien que les professionnels. De plus, il ne coûte qu'une fraction du prix de la plupart des thérapeutes humains. Mais les thérapeutes agréés affirment que si l'IA peut être utile pour faciliter le travail avec un thérapeute agréé, l'utilisation de ChatGPT à des fins thérapeutiques comporte d'innombrables pièges : cela peut créer une dépendance excessive à l'égard de l'outil. En outre, trop se fier à un chatbot dans des situations stressantes pourrait nuire à la capacité des personnes à gérer leurs problèmes par elles-mêmes.Les médias sociaux regorgent d'anecdotes sur l'utilité de la thérapie par l'IA. Les utilisateurs affirment que l'algorithme est pondéré et fournit des réponses « apaisantes » qui sont sensibles aux nuances des expériences privées d'une personne. Dans un message viral sur Reddit, un utilisateur a déclaré que « ChatGPT l'avait aidé plus que 15 ans de thérapie ». Il a déclaré que le chatbot d'OpenAI l'avait aidé à résoudre ses problèmes de santé mentale.
« Je ne sais même pas comment expliquer à quel point cela a changé les choses pour moi. Je me sens vu. Je me sens soutenu. Et j'ai fait plus de progrès en quelques semaines qu'en plusieurs années de traitement traditionnel », a écrit l'utilisateur. D'autres ont mis en avant la disponibilité de l'outil.
« J'adore ChatGPT en tant que thérapie. Ils ne projettent pas leurs problèmes sur moi. Ils n'abusent pas de leur autorité. Ils sont prêts à me parler à 23 heures », a écrit un utilisateur. D'autres utilisateurs ont vanté l'accessibilité financière du chatbot. Selon ces derniers, même la version la plus évoluée de ChatGPT, à 200 dollars par mois, est une aubaine par rapport aux plus de 200 dollars par séance pour une thérapie traditionnelle sans assurance.
En outre d'autres utilisateurs ont évoqué l'aide de ChatGPT à la métacognition, c'est-à-dire la capacité à réfléchir sur ses propres pensées. ChatGPT peut vous aider à le faire en résumant ce que vous avez dit, en posant des questions de clarification ou en suggérant des perspectives différentes. Pour les utilisateurs neurodivergents, en particulier ceux qui souffrent de TDAH ou d'anxiété, ce type de réflexion structurée pourrait être d'un « grand soutien ».
Les dangers d'une dépendance excessive à la thérapie par ChatGPT
Selon une recherche de l'université de Toronto Scarborough publiée dans la revue Communications Psychology, dans certains cas, l'IA peut surpasser les professionnels agréés avec ses réponses compatissantes. « Les chatbots ne sont pas affectés par la fatigue de la compassion qui peut frapper même les professionnels expérimentés au fil du temps », affirme l'étude. Comme l'ont noté les utilisateurs, la thérapie par l'IA présente de nombreux avantages.
« Mais malgré son endurance, un chatbot peut être incapable de fournir plus qu'une compassion de surface », note l'un des coauteurs de l'étude. Et selon Malka Shaw, assistante sociale clinique agréée, les réponses de l'IA ne sont pas toujours objectives. Certains utilisateurs ont développé un attachement émotionnel aux chatbots, ce qui a soulevé des préoccupations majeures quant aux mesures de protection, en particulier pour les utilisateurs mineurs.
Par le passé, certains algorithmes d'IA ont fourni des informations erronées ou nuisibles qui renforcent les stéréotypes ou la haine. D'après Malka Shaw, comme il est impossible de connaître les préjugés qui entrent en jeu dans la création d'un grand modèle de langage, ce dernier est potentiellement dangereux pour les utilisateurs influençables. Par exemple, ces dernières années, des chatbots d'IA ont été accusés d'avoir poussé des utilisateurs au suicide.
En 2024, en Floride, la mère de Sewell Setzer, 14 ans, a poursuivi Character.ai pour négligence, entre autres, après que l'adolescent se soit suicidé à la suite d'une conversation avec un chatbot sur la plateforme. Character.ai offre aux utilisateurs la possibilité de créer des chatbots personnalisés. Un autre procès intenté au Texas contre Character.ai affirme qu'un chatbot de la plateforme avait conseillé à un adolescent autiste de 17 ans de tuer ses parents.
Les algorithmes ne sont pas « sages » et n'ont...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Quel est votre avis sur le sujet ?