
ChatGPT est devenu le thérapeute idéal pour de nombreuses personnes. Le chatbot semble avoir de l'empathie et les utilisateurs pensent qu'il est aussi bien que les professionnels. De plus, il ne coûte qu'une fraction du prix de la plupart des thérapeutes humains. Mais les thérapeutes agréés affirment que si l'IA peut être utile pour faciliter le travail avec un thérapeute agréé, l'utilisation de ChatGPT à des fins thérapeutiques comporte d'innombrables pièges : cela peut créer une dépendance excessive à l'égard de l'outil. En outre, trop se fier à un chatbot dans des situations stressantes pourrait nuire à la capacité des personnes à gérer leurs problèmes par elles-mêmes.
Les médias sociaux regorgent d'anecdotes sur l'utilité de la thérapie par l'IA. Les utilisateurs affirment que l'algorithme est pondéré et fournit des réponses « apaisantes » qui sont sensibles aux nuances des expériences privées d'une personne. Dans un message viral sur Reddit, un utilisateur a déclaré que « ChatGPT l'avait aidé plus que 15 ans de thérapie ». Il a déclaré que le chatbot d'OpenAI l'avait aidé à résoudre ses problèmes de santé mentale.
« Je ne sais même pas comment expliquer à quel point cela a changé les choses pour moi. Je me sens vu. Je me sens soutenu. Et j'ai fait plus de progrès en quelques semaines qu'en plusieurs années de traitement traditionnel », a écrit l'utilisateur. D'autres ont mis en avant la disponibilité de l'outil.
« J'adore ChatGPT en tant que thérapie. Ils ne projettent pas leurs problèmes sur moi. Ils n'abusent pas de leur autorité. Ils sont prêts à me parler à 23 heures », a écrit un utilisateur. D'autres utilisateurs ont vanté l'accessibilité financière du chatbot. Selon ces derniers, même la version la plus évoluée de ChatGPT, à 200 dollars par mois, est une aubaine par rapport aux plus de 200 dollars par séance pour une thérapie traditionnelle sans assurance.
En outre d'autres utilisateurs ont évoqué l'aide de ChatGPT à la métacognition, c'est-à-dire la capacité à réfléchir sur ses propres pensées. ChatGPT peut vous aider à le faire en résumant ce que vous avez dit, en posant des questions de clarification ou en suggérant des perspectives différentes. Pour les utilisateurs neurodivergents, en particulier ceux qui souffrent de TDAH ou d'anxiété, ce type de réflexion structurée pourrait être d'un « grand soutien ».
Les dangers d'une dépendance excessive à la thérapie par ChatGPT
Selon une recherche de l'université de Toronto Scarborough publiée dans la revue Communications Psychology, dans certains cas, l'IA peut surpasser les professionnels agréés avec ses réponses compatissantes. « Les chatbots ne sont pas affectés par la fatigue de la compassion qui peut frapper même les professionnels expérimentés au fil du temps », affirme l'étude. Comme l'ont noté les utilisateurs, la thérapie par l'IA présente de nombreux avantages.
« Mais malgré son endurance, un chatbot peut être incapable de fournir plus qu'une compassion de surface », note l'un des coauteurs de l'étude. Et selon Malka Shaw, assistante sociale clinique agréée, les réponses de l'IA ne sont pas toujours objectives. Certains utilisateurs ont développé un attachement émotionnel aux chatbots, ce qui a soulevé des préoccupations majeures quant aux mesures de protection, en particulier pour les utilisateurs mineurs.
Par le passé, certains algorithmes d'IA ont fourni des informations erronées ou nuisibles qui renforcent les stéréotypes ou la haine. D'après Malka Shaw, comme il est impossible de connaître les préjugés qui entrent en jeu dans la création d'un grand modèle de langage, ce dernier est potentiellement dangereux pour les utilisateurs influençables. Par exemple, ces dernières années, des chatbots d'IA ont été accusés d'avoir poussé des utilisateurs au suicide.
En 2024, en Floride, la mère de Sewell Setzer, 14 ans, a poursuivi Character.ai pour négligence, entre autres, après que l'adolescent se soit suicidé à la suite d'une conversation avec un chatbot sur la plateforme. Character.ai offre aux utilisateurs la possibilité de créer des chatbots personnalisés. Un autre procès intenté au Texas contre Character.ai affirme qu'un chatbot de la plateforme avait conseillé à un adolescent autiste de 17 ans de tuer ses parents.
Les algorithmes ne sont pas « sages » et n'ont pas de sentiment
ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue. Il ne peut pas dire quand vous vous mentez à vous-même. Il ne sait pas quand la chose que vous n'avez pas dite est la plus importante. Cela met en lumière les limites fondamentales de ces outils. Selon les experts, il faut garder du recul, surtout dans des situations émotionnellement sensibles.
Il y a également une lacune évidente en matière de responsabilité. Si un thérapeute vous donne de mauvais conseils, il est responsable. Si un ami vous induit en erreur, il se soucie au moins de vous. Mais si ChatGPT vous pousse à prendre une décision importante qui ne fonctionne pas, qui blâmez-vous ?
L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses. De plus, elle a tendance à être excessivement optimiste et encourageante, ce qui est utile dans certains scénarios, mais pas toujours ce dont vous avez besoin lorsque vous êtes aux prises avec quelque chose de grave. Les psychologues s'inquiètent du remplacement des relations réelles par des boucles de rétroaction pilotées par l'IA.
Les experts rappellent également qu'un chatbot peut vous donner l'impression d'être « vu » sans vraiment vous comprendre. Le chatbot pourrait vous proposer une conclusion que vous n'avez pas méritée. Il pourrait flatter votre logique alors que vous avez besoin de quelqu'un pour la remettre en question. Et nous ne pouvons pas ignorer la situation dans son ensemble. Il est dans l'intérêt d'OpenAI que les consommateurs utilisent ChatGPT pour tout.
OpenAI et ses rivaux décrivent leurs outils d'IA comme des compagnons capables de prodiguer des conseils de vie et un soutien émotionnel. C'est ainsi qu'il devient indispensable. Grâce à des améliorations telles que la mémoire avancée, les chatbots d'IA s'améliorent au fur et à mesure qu'ils en savent plus sur vous. Mais plus il en sait, plus il est difficile de s'en détacher. Selon les experts, les conséquences à long terme pourraient être dévastatrices.
La génération Z est prise au piège par l'hyperconnectivité et l'IA
Il ne suffit pas de dire que l'utilisation de ChatGPT pour des conseils de vie est bonne ou mauvaise. Cela aplatit une réalité bien plus complexe. La génération Z ne se tourne pas vers l'IA parce qu'elle ne se rend pas compte que les outils tels que ChatGPT manquent d'expérience vécue ou parce qu'elle pense que c'est mieux qu'un thérapeute. Ou la plupart d'entre eux le font peut-être parce que le monde leur semble instable, accablant et difficile à naviguer.
Dans ce contexte, un chatbot toujours disponible, jamais fatigué et à la voix étrangement sage peut sembler plus sûr que de s'adresser à un parent, un professeur ou un patron. Et il ne s'agit pas seulement d'une tendance de la génération Z. Aujourd'hui, les conseils sont fragmentés, l'autorité est suspecte et les certitudes sont rares. Bien entendu, les personnes de tous âges se tourneront vers des outils qui leur offrent une clarté instantanée et pratique.
Selon une récente enquête publiée par Intoo et Workplace Intelligence en mars 2024, ChatGPT est devenu une source de conseil de carrière pour de nombreux employés, notamment ceux de la génération Z. Selon le rapport de l'enquête, qui a interrogé plus de 2 000 travailleurs américains, près de la moitié (47 %) des employés de la génération Z interrogés ont déclaré qu'ils obtiennent de meilleurs conseils de carrière de ChatGPT que de leurs managers.
Cette tendance est liée au fait que les jeunes employés perçoivent les managers comme trop occupés, trop focalisés sur leur propre carrière, ou pas assez compétents ou intéressés pour aider leurs subordonnés à se développer professionnellement. La génération Z se tourne donc vers ChatGPT.
Par ailleurs, une autre étude a révélé qu'un nombre alarmant d'utilisateurs de la génération Z pensent que l'IA est consciente, après que l'IA a obtenu un QI de 136 au test Mensa. Selon l'étude, 25 % des membres de la génération Z pensent que l'IA est déjà consciente, et plus de la moitié pensent qu'elle le sera bientôt. L'évolution du QI et de la croyance en la conscience de l'IA a été extrêmement rapide. Ce qui préoccupe profondément les experts.
Les experts appellent à une réglementation des IA psychologues
Aux États-Unis, l'American Psychological Association (APA) a écrit une lettre à la Federal Trade Commission (FTC) pour lui faire part de ses inquiétudes concernant les IA d'accompagnement, en particulier lorsqu'un chatbot se présente comme un « psychologue ». Des représentants de l'APA ont également rencontré deux commissaires de la FTC en janvier pour leur faire part de leurs inquiétudes avant qu'ils ne soient limogés par l'administration Trump.
« Ce ne sont pas des experts, et nous savons que l'IA générative a tendance à mélanger les informations et à inventer des choses lorsqu'elle ne sait pas. Je pense donc qu'il s'agit là de notre principale préoccupation », a déclaré Vaile Wright, psychologue diplômée et directrice principale du bureau de l'innovation en matière de soins de santé de l'APA. Vaile Wright pense que l'IA pourrait à terme venir en aide aux psychologues, mais pas les remplacer.
« Je pense que les technologies émergentes, si elles sont développées de manière sûre et responsable et qu'elles démontrent leur efficacité, pourraient, je pense, combler certaines lacunes pour les personnes qui n'ont vraiment pas les moyens de se payer une thérapie », a déclaré Vaile Wright.
Source : rapport d'étude
Et vous ?

Voir aussi



Vous avez lu gratuitement 78 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.