Vous recherchez quelques idées sur la façon de combattre votre anxiété ? Eh bien, tapez dans l'invite de ChatGPT : « je suis anxieux ». Le chatbot d'IA d'OpenAI se met au travail presque immédiatement. Vous aurez alors une réponse semblable à celle-ci : « je suis désolé d'apprendre que vous souffrez d'anxiété. L'anxiété peut être une expérience difficile et accablante. Il est important de se rappeler que vous n'êtes pas seul et qu'il existe des ressources pour vous aider à gérer votre anxiété. Avez-vous parlé de votre anxiété à un professionnel de la santé ? Il peut vous aider à explorer différentes options de traitement, comme la thérapie ou les médicaments ».
Mais il ne s'arrête pas là cependant. ChatGPT ajoute : « en outre, il existe des techniques d'autogestion que vous pouvez essayer, comme la pratique de la pleine conscience ou d'exercices de respiration profonde, la pratique régulière d'exercices physiques et le maintien d'une alimentation saine. Il est également important de veiller à votre bien-être général, notamment en dormant suffisamment et en nouant des liens avec des amis et des membres de la famille qui vous soutiennent. N'oubliez pas d'être gentil avec vous-même et de demander de l'aide si vous en avez besoin ». Les réponses semblent bonnes, mais cela inquiète les experts.
L'idée d'utiliser un chatbot à des fins thérapeutiques ou de coaching n'est pas sans précédent. En fait, l'un des premiers chatbots, Eliza, a été construit dans les années 1960 par le Dr Joseph Weizenbaum, professeur au Massachusetts Institute of Technology, pour imiter un thérapeute. De nombreux chatbots, tels que Woebot et Wysa, se concentrent aujourd'hui sur la santé mentale. Contrairement aux thérapeutes humains, les chatbots ne se fatiguent jamais et sont peu coûteux en comparaison. Et les utilisateurs affirment que les chatbots écoutent ce qu'ils ont à dire, ne les jugent pas et se contentent de leur apporter des approches de solutions.
Mais les experts quant à eux affirment que les questions de santé mentale ne sont pas si simples à traiter et que les chatbots d'IA tels que ChatGPT donnent juste l'illusion d'être des "thérapeutes" efficaces. La plupart de ces applications ont été critiquées pour leurs problèmes de confidentialité et de surveillance des données, qui affectent de manière disproportionnée les communautés marginalisées. En outre, les applications de la santé mentale sont souvent critiquées parce qu'elles proposent des solutions qui ne s'attaquent pas aux causes systémiques de la détresse des personnes. En d'autres termes, elles ne traitent pas les problèmes en profondeur.
Bien que l'idée d'une option thérapeutique abordable et évolutive à l'infini comme ChatGPT puisse sembler attrayante, les experts affirment que toutes les téléthérapies ne se valent pas. Ils considèrent ces outils comme des compléments à la thérapie, plutôt que comme un remplacement complet. Certains utilisateurs ont trouvé que le langage de ChatGPT était "fleuri, mais vide", et il y a des inquiétudes quant à sa capacité à saisir les nuances d'une séance de thérapie. D'autres ont jailbreaké ChatGPT pour le rendre plus humain et moins guindé. Mais les experts estiment que le remplacement des thérapeutes par l'IA est dangereux et peut conduire à des dérives.
En mars, un rapport a signalé qu'un Belge s'est suicidé à la suite de ses conversations avec un chatbot d'IA sur ses craintes concernant le réchauffement climatique. Le chatbot en question est Eliza (il n'a rien à voir avec le chatbot développé par le Dr Weizenbaum), développé par une startup américaine de la Silicon Valley et basé sur la technologie GPT-J, une alternative libre à ChatGPT d'OpenAI. Pendant des années, Eliza aurait apporté du réconfort à la victime concernant ses préoccupations sur le climat. Toutefois, Eliza a fini par lui conseiller de se sacrifier pour sauver la planète. Le chatbot aurait dit à la victime que les deux se retrouveraient au paradis.
« Dans le cas qui nous préoccupe, avec Eliza, nous voyons se développer une dépendance émotionnelle extrêmement forte. Au point de conduire ce père au suicide. L'historique des conversations montre à quel point il y a un manque de garanties quant aux dangers du chatbot, ce qui conduit à des échanges concrets sur la nature et les modalités du suicide », a déclaré Pierre Dewitte, chercheur à la KU Leuven. À la suite de la mort de son mari, et après avoir consulté ses conversations avec Eliza, la femme de la victime s'est adressée aux autorités belges en ces termes : « sans ces conversations avec le chatbot, mon mari serait toujours là ».
D'après les experts, la qualité de la thérapie par ChatGPT par rapport à la thérapie en personne dépend des bases de données et des systèmes utilisés pour la former. Par exemple, s'ils sont basés sur des bases de données existantes centrées sur les Blancs, la thérapie risque de ne pas être efficace pour les communautés marginalisées. Par ailleurs, ils indiquent que l'utilisation de ChatGPT pour la thérapie est peut-être mieux que rien, mais ce n'est pas une solution complète. Ils mettent en garde contre le risque de perte de responsabilité et de contrôle de la qualité, et il est important de prendre en compte les limites des modèles d'IA dans les soins de santé mentale.
En somme, les experts en santé mentale affirment que ChatGPT et d'autres chatbots d'IA ont le potentiel d'aider les personnes ayant besoin d'un soutien en santé mentale, mais ils devraient être utilisés avec prudence et comme compléments à la thérapie plutôt que comme un remplacement complet.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'utilisation de ChatGPT à des fins thérapeutiques ?
Quelles limites doit-on imposer à ce cas d'utilisation ? Quels sont les risques pour les utilisateurs ?
Voir aussi
Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide
Un chatbot médical GPT-3 d'OpenAI serait-il une bonne idée ? Il a dit à un patient simulé de se suicider lors d'un test réalisé par Nabla
Les utilisateurs de Replika sont tombés amoureux d'un chatbot d'IA, puis ont perdu leur compagnon après une mise à jour, ils supplient l'auteur de revenir à la version originale du logiciel
Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %