
En février, Dan, un ambulancier de 37 ans du New Jersey, a commencé à utiliser ChatGPT. Il était séduit par le potentiel créatif de l’outil d’OpenAI pour écrire de la fiction, mais petit à petit, ses propres expériences et difficultés personnelles ont commencé à se glisser dans ses conversations avec le chatbot. Son thérapeute, qui l’aidait à faire face à des problèmes de traumatisme complexe et de stress lié à son travail, lui avait suggéré de changer sa façon de voir les événements qui le perturbaient, une technique appelée restructuration cognitive. « Ce n’était pas quelque chose que je savais faire. Je veux dire, comment puis-je imaginer que les choses se sont passées différemment quand je suis encore en colère ? Comment puis-je faire semblant que je n’ai pas été maltraité et abusé ? », a confié Dan.
Mais ChatGPT était capable de le faire sans problème, dit-il, en fournissant des réponses que son thérapeute, apparemment, ne pouvait pas lui donner. Dan a décrit l’expérience d’utiliser le bot pour la thérapie comme étant sans enjeu, gratuite et disponible à toute heure depuis le confort de son domicile. Il a avoué rester éveillé jusqu’à 4 heures du matin pour partager ses problèmes avec le chatbot, une habitude qui inquiétait sa femme qui regrettait le fait qu’il « parlait à un ordinateur au détriment de partager [ses] sentiments et [ses] préoccupations » avec elle.
Les grands modèles de langages, tels que ChatGPT d'OpenAI ou Bard de Google, ont récemment suscité un afflux d'intérêt pour leur potentiel thérapeutique, présenté sans surprise par les influenceurs utopiques des Big Tech comme étant capables de fournir des « soins de santé mentale pour tous ». En utilisant l'appariement de modèles et le scrapping de données, ces modèles d'IA produisent un discours de type humain qui est suffisamment crédible pour convaincre certaines personnes qu'il peut agir comme une forme de soutien à la santé mentale. En conséquence, les médias sociaux regorgent d'anecdotes et de messages de personnes qui disent avoir commencé à utiliser ChatGPT en tant que thérapeute.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Holy hell.<br><br>Big Tech wants to move AI into health care with therapy bots.<br><br>An early version of ChatGPT told a mock patient who said they were suicidal to take their own life.<br><br>If this doesn’t tell you we need to regulate AI, we don’t know what will.</p>— Public Citizen (@Public_Citizen) <a href="https://twitter.com/Public_Citizen/status/1649041914077822977?ref_src=twsrc%5Etfw">April 20, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
L'application de santé mentale qui a prodigué des conseils à 4000 utilisateurs à l'aide de ChatGPT
Koko est un service de santé mentale entre pairs qui permet aux gens de demander conseil et soutien à d'autres utilisateurs. Sur son site, il est mentionné : « Koko vous met en contact avec de vraies personnes qui vous comprennent vraiment. Pas des thérapeutes, pas des conseillers, juste des gens comme vous ».
En janvier, la société a révélé avoir permis aux utilisateurs de générer des réponses automatiques à l'aide de "Koko Bot" - alimenté par le GPT-3 d'OpenAI - qui pourraient ensuite être modifiées, envoyées ou rejetées. Apparemment, les utilisateurs n'étaient pas informés qu'une IA était impliquée dans ces réponses.
Quoi qu'il en soit, Rob Morris, cofondateur de Koko, s'est laissé aller à une analyse :
Les messages composés par l'IA (et supervisés par des humains) ont reçu des notes significativement plus élevées que celles écrites par des humains eux-mêmes (p < 0,001). Les temps de réponse ont diminué de 50 %, à bien moins d'une minute. Et pourtant… nous avons retiré cela de notre plate-forme assez rapidement. Pourquoi? Une fois que les gens ont appris que les messages étaient co-créés par une machine, cela n'a pas fonctionné. L'empathie simulée semble bizarre, vide.
Les machines n'ont pas vécu l'expérience humaine, alors quand elles disent « ça a l'air dur » ou « je comprends », ça sonne inauthentique. Et elles ne déploient aucun effort véritable (du moins aucun que les humains puissent apprécier !) Elles ne prennent pas du temps dans leur journée pour penser à vous. Une réponse de chatbot générée en 3 secondes, aussi élégante soit-elle, semble en quelque sorte bon marché.
Pensez à la différence entre obtenir une carte électronique et une carte physique de quelqu'un. Même si les mots sont les mêmes dans les deux cas, nous pourrions apprécier l'effort qui consiste à aller au magasin, choisir une carte, l'envoyer, etc.
Les machines peuvent-elles surmonter cela ? Probablement. Surtout si elles établissent une relation avec l'utilisateur au fil du temps. (Woebot a publié des données suggérant que son bot peut nouer des liens avec ses utilisateurs. Kokobot le fait probablement aussi dans certains cas).
J'ai eu de longues conversations avec chatGPT où je lui ai demandé de me flatter, d'agir comme s'il se souciait de moi. Quand il a admis plus tard qu'il ne pouvait pas vraiment se soucier de moi parce que, eh bien, c'est un modèle de langage, je me sentais vraiment un peu mal.
Peut-être sommes-nous si désespérés d'être entendus, d'avoir quelque chose qui prête vraiment attention à nous sans être distraits, sans regarder un téléphone, parcourir nos e-mails ou Twitter. Peut-être que nous aspirons à cela si profondément que nous nous convaincrons que le les machines se soucient réellement de nous.
Les implications ici sont mal comprises. Les gens finiraient-ils par rechercher le soutien émotionnel des machines, plutôt que des amis et de la famille ?
Comment tirer profit des machines empathiques, sans sacrifier les relations humaines existantes ? Comme le prévient Sherry Turkle, il est possible que la machine « commence comme une solution et finisse comme un usurpateur ».
Il est également possible que la véritable empathie soit une chose que nous, les humains, pouvons considérer comme la nôtre. C'est peut-être la seule chose que nous faisons que l'IA ne pourra jamais remplacer.
Les machines n'ont pas vécu l'expérience humaine, alors quand elles disent « ça a l'air dur » ou « je comprends », ça sonne inauthentique. Et elles ne déploient aucun effort véritable (du moins aucun que les humains puissent apprécier !) Elles ne prennent pas du temps dans leur journée pour penser à vous. Une réponse de chatbot générée en 3 secondes, aussi élégante soit-elle, semble en quelque sorte bon marché.
Pensez à la différence entre obtenir une carte électronique et une carte physique de quelqu'un. Même si les mots sont les mêmes dans les deux cas, nous pourrions apprécier l'effort qui consiste à aller au magasin, choisir une carte, l'envoyer, etc.
Les machines peuvent-elles surmonter cela ? Probablement. Surtout si elles établissent une relation avec l'utilisateur au fil du temps. (Woebot a publié des données suggérant que son bot peut nouer des liens avec ses utilisateurs. Kokobot le fait probablement aussi dans certains cas).
J'ai eu de longues conversations avec chatGPT où je lui ai demandé de me flatter, d'agir comme s'il se souciait de moi. Quand il a admis plus tard qu'il ne pouvait pas vraiment se soucier de moi parce que, eh bien, c'est un modèle de langage, je me sentais vraiment un peu mal.
Peut-être sommes-nous si désespérés d'être entendus, d'avoir quelque chose qui prête vraiment attention à nous sans être distraits, sans regarder un téléphone, parcourir nos e-mails ou Twitter. Peut-être que nous aspirons à cela si profondément que nous nous convaincrons que le les machines se soucient réellement de nous.
Les implications ici sont mal comprises. Les gens finiraient-ils par rechercher le soutien émotionnel des machines, plutôt que des amis et de la famille ?
Comment tirer profit des machines empathiques, sans sacrifier les relations humaines existantes ? Comme le prévient Sherry Turkle, il est possible que la machine « commence comme une solution et finisse comme un usurpateur ».
Il est également possible que la véritable empathie soit une chose que nous, les humains, pouvons considérer comme la nôtre. C'est peut-être la seule chose que nous faisons que l'IA ne pourra jamais remplacer.
Les dangers et les limites de ChatGPT
Face à une demande croissante de soins de santé mentale, et à un manque de financement et d’infrastructure existants pour des options de soins équitables, disposer d’une option abordable et infiniment évolutive comme ChatGPT semble être une bonne chose. Mais l’industrie de la crise de la santé mentale est souvent prompte à offrir des solutions qui n’ont pas le meilleur intérêt du patient à cœur.
À l'heure actuelle, on ne sait pas comment ChatGPT sera intégré dans l'avenir des soins de santé mentale, comment OpenAI répondra à ses préoccupations...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.