
Les médias sociaux regorgent d'anecdotes sur l'utilité de la thérapie par l'IA. Les utilisateurs affirment que l'algorithme est pondéré et fournit des réponses « apaisantes » qui sont sensibles aux nuances des expériences privées d'une personne. Dans un message viral sur Reddit, un utilisateur a déclaré que « ChatGPT l'avait aidé plus que 15 ans de thérapie ». Il a déclaré que le chatbot d'OpenAI l'avait aidé à résoudre ses problèmes de santé mentale.
« Je ne sais même pas comment expliquer à quel point cela a changé les choses pour moi. Je me sens vu. Je me sens soutenu. Et j'ai fait plus de progrès en quelques semaines qu'en plusieurs années de traitement traditionnel », a écrit l'utilisateur. D'autres ont mis en avant la disponibilité de l'outil.
« J'adore ChatGPT en tant que thérapie. Ils ne projettent pas leurs problèmes sur moi. Ils n'abusent pas de leur autorité. Ils sont prêts à me parler à 23 heures », a écrit un utilisateur. D'autres utilisateurs ont vanté l'accessibilité financière du chatbot. Selon ces derniers, même la version la plus évoluée de ChatGPT, à 200 dollars par mois, est une aubaine par rapport aux plus de 200 dollars par séance pour une thérapie traditionnelle sans assurance.
En outre d'autres utilisateurs ont évoqué l'aide de ChatGPT à la métacognition, c'est-à-dire la capacité à réfléchir sur ses propres pensées. ChatGPT peut vous aider à le faire en résumant ce que vous avez dit, en posant des questions de clarification ou en suggérant des perspectives différentes. Pour les utilisateurs neurodivergents, en particulier ceux qui souffrent de TDAH ou d'anxiété, ce type de réflexion structurée pourrait être d'un « grand soutien ».
Les dangers d'une dépendance excessive à la thérapie par ChatGPT
Selon une recherche de l'université de Toronto Scarborough publiée dans la revue Communications Psychology, dans certains cas, l'IA peut surpasser les professionnels agréés avec ses réponses compatissantes. « Les chatbots ne sont pas affectés par la fatigue de la compassion qui peut frapper même les professionnels expérimentés au fil du temps », affirme l'étude. Comme l'ont noté les utilisateurs, la thérapie par l'IA présente de nombreux avantages.
« Mais malgré son endurance, un chatbot peut être incapable de fournir plus qu'une compassion de surface », note l'un des coauteurs de l'étude. Et selon Malka Shaw, assistante sociale clinique agréée, les réponses de l'IA ne sont pas toujours objectives. Certains utilisateurs ont développé un attachement émotionnel aux chatbots, ce qui a soulevé des préoccupations majeures quant aux mesures de protection, en particulier pour les utilisateurs mineurs.
Par le passé, certains algorithmes d'IA ont fourni des informations erronées ou nuisibles qui renforcent les stéréotypes ou la haine. D'après Malka Shaw, comme il est impossible de connaître les préjugés qui entrent en jeu dans la création d'un grand modèle de langage, ce dernier est potentiellement dangereux pour les utilisateurs influençables. Par exemple, ces dernières années, des chatbots d'IA ont été accusés d'avoir poussé des utilisateurs au suicide.
En 2024, en Floride, la mère de Sewell Setzer, 14 ans, a poursuivi Character.ai pour négligence, entre autres, après que l'adolescent se soit suicidé à la suite d'une conversation avec un chatbot sur la plateforme. Character.ai offre aux utilisateurs la possibilité de créer des chatbots personnalisés. Un autre procès intenté au Texas contre Character.ai affirme qu'un chatbot de la plateforme avait conseillé à un adolescent autiste de 17 ans de tuer ses parents.
Les algorithmes ne sont pas « sages » et n'ont pas de sentiment
ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue. Il ne peut pas dire quand vous vous mentez à vous-même. Il ne sait pas quand la chose que vous n'avez pas dite est la plus importante. Cela met en lumière les limites fondamentales de ces outils. Selon les experts, il faut garder du recul, surtout dans des situations émotionnellement sensibles.
Il y a également une lacune évidente en matière de responsabilité. Si un thérapeute vous donne de mauvais conseils, il est responsable. Si un ami vous induit en erreur, il se soucie au moins de vous. Mais si ChatGPT vous pousse à prendre une décision importante qui ne fonctionne pas, qui blâmez-vous ?
L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses. De plus, elle a tendance à être excessivement optimiste et encourageante, ce qui est utile dans certains scénarios, mais pas toujours ce dont vous avez besoin lorsque vous êtes aux prises avec quelque chose de grave. Les psychologues s'inquiètent du remplacement des relations réelles par des boucles de rétroaction pilotées par l'IA.
Les experts rappellent également qu'un chatbot peut vous donner l'impression d'être « vu » sans vraiment vous comprendre. Le chatbot pourrait vous proposer une conclusion que vous n'avez pas méritée. Il pourrait flatter votre logique alors que vous avez besoin de quelqu'un pour la remettre en question. Et nous ne pouvons pas ignorer la situation dans son ensemble. Il est dans l'intérêt d'OpenAI que les consommateurs utilisent ChatGPT pour tout.
OpenAI et ses rivaux décrivent leurs outils d'IA comme des compagnons capables de prodiguer des conseils de vie et un soutien émotionnel. C'est ainsi qu'il devient indispensable. Grâce à des améliorations telles que la mémoire avancée, les chatbots d'IA s'améliorent au fur et à mesure qu'ils en savent plus sur vous. Mais plus il en sait, plus il est difficile de s'en détacher. Selon les experts, les conséquences à long terme pourraient être dévastatrices.
La génération Z est prise au piège par l'hyperconnectivité et l'IA
Il ne suffit pas de dire que l'utilisation de ChatGPT pour des conseils de vie est bonne ou mauvaise. Cela aplatit une réalité bien plus complexe. La génération Z ne se tourne pas vers l'IA parce qu'elle ne se rend pas compte que les outils tels que ChatGPT manquent d'expérience vécue ou parce qu'elle pense que c'est mieux qu'un thérapeute. Ou la plupart d'entre eux le font peut-être parce que le monde leur semble instable, accablant et difficile à naviguer.
Dans ce contexte, un chatbot toujours disponible, jamais fatigué et à la voix étrangement sage peut sembler plus sûr que de s'adresser à un parent, un professeur ou un patron. Et il ne s'agit pas seulement d'une tendance de la génération Z. Aujourd'hui, les conseils sont fragmentés, l'autorité est suspecte et les certitudes sont rares. Bien entendu, les personnes de tous âges se tourneront vers des outils qui leur offrent une clarté instantanée et pratique.
Selon une récente enquête publiée par Intoo et Workplace Intelligence en mars 2024, ChatGPT est devenu une source de conseil de carrière pour de nombreux employés, notamment ceux de la génération Z....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.