
tandis que l'administration Trump en matière d'IA prévoit un moratoire de 10 ans sur toute réglementation de l'IA au niveau des États
L'avènement de l'intelligence artificielle a ouvert de nouvelles perspectives dans de nombreux secteurs, y compris celui de la santé mentale. Cependant, avec ces avancées technologiques viennent des questions complexes sur la sécurité et la qualité des soins. L'État de l'Illinois a pris les devants en devenant le premier État américain à interdire l'utilisation de l'IA en tant que thérapeute autonome, une décision qui marque un tournant majeur dans la régulation de cette technologie.
Aux États-Unis, l'American Psychological Association (APA) a écrit une lettre à la Federal Trade Commission (FTC) pour lui faire part de ses inquiétudes concernant les IA d'accompagnement, en particulier lorsqu'un chatbot se présente comme un « psychologue ». Des représentants de l'APA ont également rencontré deux commissaires de la FTC en janvier pour leur faire part de leurs inquiétudes avant qu'ils ne soient limogés par l'administration Trump.
« Ce ne sont pas des experts, et nous savons que l'IA générative a tendance à mélanger les informations et à inventer des choses lorsqu'elle ne sait pas. Je pense donc qu'il s'agit là de notre principale préoccupation », a déclaré Vaile Wright, psychologue diplômée et directrice principale du bureau de l'innovation en matière de soins de santé de l'APA. Vaile Wright pense que l'IA pourrait à terme venir en aide aux psychologues, mais pas les remplacer.
« Je pense que les technologies émergentes, si elles sont développées de manière sûre et responsable et qu'elles démontrent leur efficacité, pourraient, je pense, combler certaines lacunes pour les personnes qui n'ont vraiment pas les moyens de se payer une thérapie », a déclaré Vaile Wright.
L'Illinois réagit en promulguant une loi interdisant la thérapie par IA dans l'État : une amende de 10 000 dollars prévue
Le gouverneur de l'Illinois, JB Pritzker, a promulgué une loi interdisant la thérapie par IA dans l'État. L'Illinois devient ainsi le premier État à réglementer l'utilisation de l'IA dans les services de santé mentale. La loi souligne que seuls les professionnels agréés sont autorisés à offrir des services de conseil dans l'État et interdit aux chatbots ou outils d'IA d'agir en tant que thérapeutes autonomes.
Le projet de loi HB 1806, intitulé « Wellness and Oversight for Psychological Resources Act » (loi sur le bien-être et la surveillance des ressources psychologiques), précise également que les thérapeutes agréés ne peuvent pas utiliser l'IA pour prendre des « décisions thérapeutiques » ou établir une « communication thérapeutique ». Il impose également des restrictions sur la manière dont les professionnels de la santé mentale peuvent utiliser l'IA dans leur travail, en précisant par exemple que son utilisation à des fins de « soutien supplémentaire », comme la gestion des rendez-vous, la facturation ou d'autres tâches administratives, est autorisée.
Dans une déclaration, Bob Morgan, représentant de l'État de l'Illinois, a déclaré : « Nous avons déjà entendu des histoires horribles dans lesquelles l'intelligence artificielle se fait passer pour un thérapeute agréé. Des personnes en situation de crise se sont tournées sans le savoir vers l'IA pour obtenir de l'aide et ont été poussées vers des comportements dangereux, voire mortels. » La loi prévoit des sanctions sévères afin d'éviter de tels résultats, les entreprises ou les particuliers s'exposant à une amende de 10 000 dollars par infraction.
« Cette législation témoigne de notre engagement à protéger le bien-être de nos résidents en garantissant que les services de santé mentale sont fournis par des experts qualifiés qui accordent la priorité absolue aux soins des patients », a déclaré Mario Treto Jr., secrétaire du département des réglementations financières et professionnelles de l'Illinois.
Le projet de loi a été adopté à l'unanimité par la Chambre des représentants et le Sénat de l'Illinois, signe d'un soutien bipartite écrasant. Cette législation est particulièrement remarquable dans la mesure où le plan récemment dévoilé par l'administration Trump en matière d'IA prévoit un moratoire de 10 ans sur toute réglementation de l'IA au niveau des États. Elle intervient également alors qu'OpenAI a déclaré qu'elle améliorait la capacité de ses modèles à détecter la détresse mentale ou émotionnelle et qu'elle demanderait aux utilisateurs de faire une pause lors de conversations anormalement longues.
La génération Z se tourne de plus en plus vers ChatGPT pour une thérapie à la demande abordable
Les médias sociaux regorgent d'anecdotes sur l'utilité de la thérapie par l'IA. Les utilisateurs affirment que l'algorithme est pondéré et fournit des réponses « apaisantes » qui sont sensibles aux nuances des expériences privées d'une personne. Dans un message viral sur Reddit, un utilisateur a déclaré que « ChatGPT l'avait aidé plus que 15 ans de thérapie ». Il a déclaré que le chatbot d'OpenAI l'avait aidé à résoudre ses problèmes de santé mentale.
« Je ne sais même pas comment expliquer à quel point cela a changé les choses pour moi. Je me sens vu. Je me sens soutenu. Et j'ai fait plus de progrès en quelques semaines qu'en plusieurs années de traitement traditionnel », a écrit l'utilisateur. D'autres ont mis en avant la disponibilité de l'outil.
« J'adore ChatGPT en tant que thérapie. Ils ne projettent pas leurs problèmes sur moi. Ils n'abusent pas de leur autorité. Ils sont prêts à me parler à 23 heures », a écrit un utilisateur. D'autres utilisateurs ont vanté l'accessibilité financière du chatbot. Selon ces derniers, même la version la plus évoluée de ChatGPT, à 200 dollars par mois, est une aubaine par rapport aux plus de 200 dollars par séance pour une thérapie traditionnelle sans assurance.
En outre d'autres utilisateurs ont évoqué l'aide de ChatGPT à la métacognition, c'est-à-dire la capacité à réfléchir sur ses propres pensées. ChatGPT peut vous aider à le faire en résumant ce que vous avez dit, en posant des questions de clarification ou en suggérant des perspectives différentes. Pour les utilisateurs neurodivergents, en particulier ceux qui souffrent de TDAH ou d'anxiété, ce type de réflexion structurée pourrait être d'un « grand soutien ».
Les dangers d'une dépendance excessive à la thérapie par ChatGPT
Selon une recherche de l'université de Toronto Scarborough publiée dans la revue Communications Psychology, dans certains cas, l'IA peut surpasser les professionnels agréés avec ses réponses compatissantes. « Les chatbots ne sont pas affectés par la fatigue de la compassion qui peut frapper même les professionnels expérimentés au fil du temps », affirme l'étude. Comme l'ont noté les utilisateurs, la thérapie par l'IA présente de nombreux avantages.
« Mais malgré son endurance, un chatbot peut être incapable de fournir plus qu'une compassion de surface », note l'un des coauteurs de l'étude. Et selon Malka Shaw, assistante sociale clinique agréée, les réponses de l'IA ne sont pas toujours objectives. Certains utilisateurs ont développé un attachement émotionnel aux chatbots, ce qui a soulevé des préoccupations majeures quant aux mesures de protection, en particulier pour les utilisateurs mineurs.
Par le passé, certains algorithmes d'IA ont fourni des informations erronées ou nuisibles qui renforcent les stéréotypes ou la haine. D'après Malka Shaw, comme il est impossible de connaître les préjugés qui entrent en jeu dans la création d'un grand modèle de langage, ce dernier est potentiellement dangereux pour les utilisateurs influençables. Par exemple, ces dernières années, des chatbots d'IA ont été accusés d'avoir poussé des utilisateurs au suicide.
En 2024, en Floride, la mère de Sewell Setzer, 14 ans, a poursuivi Character.ai pour négligence, entre autres, après que l'adolescent se soit suicidé à la suite d'une conversation avec un chatbot sur la plateforme. Character.ai offre aux utilisateurs la possibilité de créer des chatbots personnalisés. Un autre procès intenté au Texas contre Character.ai affirme qu'un chatbot de la plateforme avait conseillé à un adolescent autiste de 17 ans de tuer ses parents.
Les algorithmes ne sont pas « sages » et n'ont pas de sentiment
ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue. Il ne peut pas dire quand vous vous mentez à vous-même. Il ne sait pas quand la chose que vous n'avez pas dite est la plus importante. Cela met en lumière les limites fondamentales de ces outils. Selon les experts, il faut garder du recul, surtout dans des situations émotionnellement sensibles.
Il y a également une lacune évidente en matière de responsabilité. Si un thérapeute vous donne de mauvais conseils, il est responsable. Si un ami vous induit en erreur, il se soucie au moins de vous. Mais si ChatGPT vous pousse à prendre une décision importante qui ne fonctionne pas, qui blâmez-vous ?
L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses. De plus, elle a tendance à être excessivement optimiste et encourageante, ce qui est utile dans certains scénarios, mais pas toujours ce dont vous avez besoin lorsque vous êtes aux prises avec quelque chose de grave. Les psychologues s'inquiètent du remplacement des relations réelles par des boucles de rétroaction pilotées par l'IA.
Les experts rappellent également qu'un chatbot peut vous donner l'impression d'être « vu » sans vraiment vous comprendre. Le chatbot pourrait vous proposer une conclusion que vous n'avez pas méritée. Il pourrait flatter votre logique alors que vous avez besoin de quelqu'un pour la remettre en question. Et nous ne pouvons pas ignorer la situation dans son ensemble. Il est dans l'intérêt d'OpenAI que les consommateurs utilisent ChatGPT pour tout.
OpenAI et ses rivaux décrivent leurs outils d'IA comme des compagnons capables de prodiguer des conseils de vie et un soutien émotionnel. C'est ainsi qu'il devient indispensable. Grâce à des améliorations telles que la mémoire avancée, les chatbots d'IA s'améliorent au fur et à mesure qu'ils en savent plus sur vous. Mais plus il en sait, plus il est difficile de s'en détacher. Selon les experts, les conséquences à long terme pourraient être dévastatrices.
Sources : Illinois (1, 2)
Et vous ?






Vous avez lu gratuitement 2 634 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.