IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une application de santé mentale critiquée pour avoir utilisé l'IA chatGPT pour prodiguer des conseils à 4000 utilisateurs
Ces derniers ont donné une note élevée aux réponses de l'IA

Le , par Stéphane le calme

163PARTAGES

9  0 
Koko, une plate-forme en ligne de santé mentale, a prodigué à quelque 4 000 utilisateurs un conseil qui avait été créé par une AI, sans les en informer au préalable. Rob Morris, le co-fondateur de l'application de santé mentale Koko, a expliqué comment ils utilisaient une approche « co-pilote », avec des humains supervisant l'IA au besoin. Ils l'ont fait sur environ 30 000 messages.

La plate-forme a constaté que les messages composés par l'IA étaient nettement mieux notés que ceux écrits par les humains, tandis que les temps de réponse ont diminué de 50% à moins d'une minute.

Malgré le succès auprès des utilisateurs, le test a été arrêté car il semblait inauthentique.


Les chatbots IA comme ChatGPT peuvent faire beaucoup de choses. Ils peuvent répondre aux tweets, écrire de la science-fiction, planifier le Noël de la famille et agir comme avocat au tribunal. Mais un chatbot peut-il fournir un soutien sûr et efficace en matière de santé mentale ? Une entreprise appelée Koko a décidé de le découvrir en se servant de l'IA pour aider à créer un soutien en matière de santé mentale pour environ 4 000 de ses utilisateurs en octobre.

« Franchement, ce sera l'avenir. Nous allons penser que nous interagissons avec des humains et ne pas savoir s'il y avait une IA impliquée. Comment cela affecte-t-il la communication interhumaine ? J'ai mes propres problèmes de santé mentale, donc je veux vraiment que cela soit fait correctement », a déclaré le co-fondateur de Koko, Rob Morris.

Koko est un service de santé mentale entre pairs qui permet aux gens de demander conseil et soutien à d'autres utilisateurs. Sur son site, il est mentionné : « Koko vous met en contact avec de vraies personnes qui vous comprennent vraiment. Pas des thérapeutes, pas des conseillers, juste des gens comme vous ».

Dans une brève expérience, la société a permis aux utilisateurs de générer des réponses automatiques à l'aide de "Koko Bot" - alimenté par le GPT-3 d'OpenAI - qui pourraient ensuite être modifiées, envoyées ou rejetées. Selon Morris, les 30 000 messages assistés par l'IA envoyés pendant le test ont reçu une réponse extrêmement positive, mais la société a arrêté l'expérience après quelques jours parce qu'elle « semblait plutôt stérile ».

« Lorsque vous interagissez avec GPT-3, vous pouvez commencer à capter certains indices. Tout est vraiment bien écrit, mais c'est une sorte de formule, et vous pouvez le lire et reconnaître que tout est purement écrit par un bot et qu'aucune nuance humaine n'a été ajoutée », a déclaré Morris. « Il y a quelque chose dans l'authenticité qui se perd lorsque vous avez cet outil comme outil de soutien pour vous aider dans votre écriture, en particulier dans ce genre de contexte. Sur notre plate-forme, les messages semblaient meilleurs d'une certaine manière quand je pouvais sentir qu'ils étaient plus écrits par l'homme ».

Morris a publié un fil sur Twitter à propos du test qui impliquait que les utilisateurs ne comprenaient pas qu'une IA était impliquée dans leurs soins. Il a tweeté « qu'une fois que les gens ont appris que les messages étaient co-créés par une machine, cela n'a pas fonctionné ». Le tweet a provoqué un tollé sur Twitter à propos de l'éthique des recherches de Koko, étant donné que ses propos ont suggéré un manque clé de consentement éclairé pendant au moins une phase de l'expérience.

Citation Envoyé par Rob Morris
Les messages composés par l'IA (et supervisés par des humains) ont reçu des notes significativement plus élevées que celles écrites par des humains eux-mêmes (p < 0,001). Les temps de réponse ont diminué de 50 %, à bien moins d'une minute. Et pourtant… nous avons retiré cela de notre plate-forme assez rapidement. Pourquoi? Une fois que les gens ont appris que les messages étaient co-créés par une machine, cela n'a pas fonctionné. L'empathie simulée semble bizarre, vide.

Les machines n'ont pas vécu l'expérience humaine, alors quand elles disent « ça a l'air dur » ou « je comprends », ça sonne inauthentique. Et elles ne déploient aucun effort véritable (du moins aucun que les humains puissent apprécier !) Elles ne prennent pas du temps dans leur journée pour penser à vous. Une réponse de chatbot générée en 3 secondes, aussi élégante soit-elle, semble en quelque sorte bon marché.

Pensez à la différence entre obtenir une carte électronique et une carte physique de quelqu'un. Même si les mots sont les mêmes dans les deux cas, nous pourrions apprécier l'effort qui consiste à aller au magasin, choisir une carte, l'envoyer, etc.

Les machines peuvent-elles surmonter cela ? Probablement. Surtout si elles établissent une relation avec l'utilisateur au fil du temps. (Woebot a publié des données suggérant que son bot peut nouer des liens avec ses utilisateurs. Kokobot le fait probablement aussi dans certains cas).

J'ai eu de longues conversations avec chatGPT où je lui ai demandé de me flatter, d'agir comme s'il se souciait de moi. Quand il a admis plus tard qu'il ne pouvait pas vraiment se soucier de moi parce que, eh bien, c'est un modèle de langage, je me sentais vraiment un peu mal.

Peut-être sommes-nous si désespérés d'être entendus, d'avoir quelque chose qui prête vraiment attention à nous sans être distraits, sans regarder un téléphone, parcourir ses e-mails ou Twitter. Peut-être que nous aspirons à cela si profondément que nous nous convaincrons que le les machines se soucient réellement de nous.

Les implications ici sont mal comprises. Les gens finiraient-ils par rechercher le soutien émotionnel des machines, plutôt que des amis et de la famille ?

Comment tirer profit des machines empathiques, sans sacrifier les relations humaines existantes ? Comme le prévient Sherry Turkle, il est possible que la machine « commence comme une solution et finisse comme un usurpateur ».

Il est également possible que la véritable empathie soit une chose que nous, les humains, pouvons considérer comme la nôtre. C'est peut-être la seule chose que nous faisons que l'IA ne pourra jamais remplacer.
Sur Twitter, il a présenté une vidéo de deux minutes pour montrer comment le système fonctionne :

Peu de temps après avoir publié le fil Twitter, Morris a reçu de nombreuses réponses critiquant l'expérience comme étant contraire à l'éthique, citant des préoccupations concernant le manque de consentement éclairé et demandant si un comité d'examen institutionnel (IRB) avait approuvé l'expérience. Dans une réponse tweetée, Morris a déclaré que l'expérience « serait exemptée » des exigences de consentement éclairé car il n'avait pas prévu de publier les résultats :

« Ce serait exempté [ndlr. des exigences de consentement éclairé]. Le modèle a été utilisé pour suggérer des réponses aux fournisseurs d'aide, qui pouvaient choisir de l'utiliser ou non. Nous n'avons utilisé aucune donnée personnelle, toutes les données sont anonymes, il n'y a aucun plan de publication. Mais l'IRB de l'HGM est formidable... Je ne pourrais même pas utiliser d'encre rouge dans nos dépliants d'étude si je me souviens bien... »


Ce à quoi un utilisateur a répondu :

« En tant qu'ancien membre et président de l'IRB, vous avez mené des recherches sur des sujets humains sur une population vulnérable sans l'approbation ou l'exemption de l'IRB (VOUS ne pouvez pas décider). Peut-être que le processus MGH IRB est si lent parce qu'il traite de choses comme ça. Conseil non sollicité : prenez un avocat ».


Face aux réactions sur Twitter, il a tenu a apporté des clarifications sur son fil :

Quelques précisions importantes sur mon récent fil de tweet :

Nous ne jumelions pas les gens pour discuter avec GPT-3, à leur insu. (rétrospectivement, j'aurais pu formuler mon premier tweet pour mieux refléter cela). Nous avons proposé à nos pairs sympathisants l'utilisation de GPT-3 pour les aider à élaborer leurs réponses. Nous voulions voir si cela les rendrait plus efficaces. Les gens du service ne discutaient pas directement avec l'IA.

Cette fonctionnalité était en opt-in. Tout le monde était au courant de la fonctionnalité lorsqu'elle était en ligne depuis quelques jours.
Cependant, l'expérience soulève des questions éthiques, y compris des doutes sur la façon dont Koko a informé les utilisateurs et les risques de tester une technologie non éprouvée dans un cadre de soins de santé en direct, même un peer-to-peer.

Conclusion

L'idée d'utiliser l'IA en tant que thérapeute est loin d'être nouvelle, mais la différence entre l'expérience de Koko et les approches thérapeutiques typiques de l'IA est que les patients savent généralement qu'ils ne parlent pas avec un vrai humain (fait intéressant, l'un des premiers chatbots, ELIZA, a simulé une séance de psychothérapie).

Dans le cas de Koko, la plateforme offrait une approche hybride où un intermédiaire humain pouvait prévisualiser le message avant de l'envoyer, au lieu d'un format de chat direct. Pourtant, sans consentement éclairé, les critiques affirment que Koko a violé les normes éthiques en vigueur conçues pour protéger les personnes vulnérables contre les pratiques de recherche nuisibles ou abusives.

Lundi, Morris a partagé un message réagissant à la controverse qui explique la voie à suivre de Koko avec GPT-3 et l'IA en général, écrivant : « Je reçois des critiques, des préoccupations et des questions sur ce travail avec empathie et ouverture. Nous partageons un intérêt à nous assurer que toutes les utilisations de l'IA sont traitées avec délicatesse, avec un profond souci de confidentialité, de transparence et d'atténuation des risques. Notre conseil consultatif clinique se réunit pour discuter des lignes directrices pour les travaux futurs, en particulier en ce qui concerne l'approbation de l'IRB ».

Source : Rob Morris

Et vous ?

Quelle lecture faites-vous de la situation ?
Penchez-vous plus du côté de Rob Morris ou de ceux qui lui reprochent son approche avec chatGPT ? Pourquoi ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de thamn
Membre averti https://www.developpez.com
Le 19/02/2023 à 21:59
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
Ah oui bien sur, pour changer de boulot suffit de traverser la rue comme disait l'autre.
Essaye de changer de job sans debaler ton joli diplome qui t'aurais couté un bras au US, et revient nous en causer apres.
13  0 
Avatar de babacool421
Nouveau membre du Club https://www.developpez.com
Le 10/02/2023 à 12:52
Citation Envoyé par Mat.M Voir le message
la méga différence entre Google et ChatGPT c'est que le premier est une entreprise vraiment commerciale qui gagne du cash.
ChatGPT je sais pas ce que c'est, est-ce un outil développé par un collectif d'universitaires ?
Comment ce truc 'est financé ?

Google est dirigé par des informaticiens, Serguei Brin en particulier, est un ingénieur/chercheur brillant qui développe et intervient sur les projets R&D encore aujourd'hui. Serguei est convaincu pour avoir eu la chance de participer à une conférence "intimiste" que l'émergence de l'IA forte est primordiale et une étape importante dans l'évolution de notre civilisation (voir pour sa survie). L'IA forte nous permettrait, selon lui, de faire un nouveau bon technologique et de résoudre plus rapidement des problématiques hors de portée de l'intelligence humaine à ce jour (amélioration importante de la durée de vie, maitrise de la fusion nucléaire ou des réactions matières/anti-matière, maitrise du voyage interstellaire (trou de vers, métrique d’Alcubierre,...),...
N'oublions pas qu'à tout moment un évènement stellaire pourrait détruire notre habitat (comète, sursaut gamma, trou noir errant) et même le réveil des trapps de sibérie pour rendre notre planète inhabitable. Cet évènement arrivera et nous ne pouvons prédire quand. Demain peut-être.

remarque pertinente..sans trop faire du H.S. j'espère que c'est possible pour nos "fleurons" hexagonaux comme Cap ou Atos quand on voit les déboires d'Atos...
Citez moi une innovation technologique impactante à l'échelle de l'humanité (même de l'Europe) développée de Cap ou Atos ? Pour avoir travaillé pour ces entreprises et d'autres ESN, ces sociétés détournent les dispositifs comme le CIR/CII pour améliorer leur marge au lieu de financer de vrais projets R&D et développer des nouvelles technologies. Et même les ratios de ces "faux" budgets R&D sont ridicules comparés aux investissements de Google ou Amazon.
En France, nous sommes très bons en recherche fondamentale ou en recherche appliquées de part notre réseau universitaire et d'école assez performant. Mais, les entreprises françaises qui profitent de ses travaux sont dirigés par des investisseurs, des ignorants en science, incapable de juger par eux même de la pertinence d'une thèse par rapport à une autre. Nous avons probablement entre 10 et 15 ans de retard sur la R&D sur le domaine de l'informatique, l'IA ou la robotique par rapport à Google et Amazon.
11  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/03/2023 à 9:28
Bonjour,

Le problème avec ChatGPT, ou plus généralement à notre époque, c'est qu'on a énormément d'informations à disposition MAIS il y a de bonnes et de fausses informations mélangées.
De plus, un certain nombre de bonnes informations sont parfois méconnues.

C'est vrai dans tous les domaines.

J'ai 42 ans, ingénieur généraliste, passionné de bricolage, j'en apprends encore tous les jours, et notamment des choses que "j'aurais dû savoir avant"

Quelques exemples :

J'ai fait moi-même mon chauffage central il y a 15 ans.
J'ai découvert il y a 2 ou 3 ans qu'un mitigeur thermostatique n'était pas compatible avec une chaudière à production d'eau chaude instantanée
Et qu'il fallait ajuster la température de l'eau chaude au minimum, de façon à ne se doucher qu'avec de l'eau chaude (qui est en fait tiède)
La chaudière (modèle à condensation) fonctionne mieux, avec un meilleur rendement, et il n'y a pas de risque sanitaire car il n'y a pas d'accumulation d'eau chaude, étant donné que la production d'eau chaude est instantanée. C'est uniquement quand de l'eau chaude stagne (cumulus) qu'il faut qu'elle soit suffisamment chaude pour éviter un risque sanitaire.
Cette information, beaucoup de gens, y compris "du métier", ne la connaissent pas ou pire disent qu'elle est fausse.

Autre sujet : le béton.
La meilleure façon de bien couler du béton c'est :
- de mettre la quantité d'eau minimum : quand sur le sac c'est écrit "2,7 à 3 litres d'eau" il faut mettre 2,7 litres d'eau pas plus
- d'ajouter du fluidifiant (produit spécifique)
- de vibrer le béton une fois coulé
Beaucoup de gens l'ignorent, et notamment mettent trop d'eau => le béton est fragile, il y a un risque de malfaçon importante voir un danger si la structure est porteuse...
Même en magasin de bricolage, j'ai vu des vendeurs conseiller de doser l'eau au pifomètre !
Même des "professionnels" ajoutent de l'eau dans la toupie pour travailler plus facilement
Ces gens sont incompétents, ce sont des escrocs qui mettent des vies en danger.

ChatGPT se base sur Internet.
Internet est démocratique.
Mais, comme l'a dit mon prof de physique en 1re année de prépa (cela m'avait choqué à l'époque) :
"Le problème avec la démocratie, c'est quand 10 personnes se trompent et 9 personnes ont juste, et bien on donne raison aux 10 personnes qui se trompent"
Les réseaux sociaux, en permettant à n'importe qui de publier très facilement n'importe quoi, ont amplifié le phénomène.
Avant les réseaux sociaux, créer un site demandait un minimum de travail, et pour avoir des visiteurs il fallait publier des contenus intéressants, ça faisait office de filtre (même si il pouvait y avoir pas mal de conneries quand même mais nettement moins qu'aujourd'hui )
D'autant que les algorithmes des réseaux sociaux sont conçus pour amplifier les contenus émotionnels négatifs.
ChatGPT va juste faire la moyenne de tout.
Certes pour quelqu'un qui n'y connais rien sur un sujet, ChatGPT va probablement apporter une réponse.
Mais par rapport aux experts de chaque domaine, ChatGPT est clairement en dessous.
L'IA aboutit donc à un nivellement par le bas

Ainsi le créationnisme en vient à être enseigné dans certains pays comme théorie aussi valable que la théorie de l'évolution
Et on voit, en 2023, des gens croire que la terre est plate.

Que dire de l'IA ? On devrait plutôt parler de connerie artificielle
11  0 
Avatar de
https://www.developpez.com
Le 30/01/2023 à 23:01
Si je resume, je dois travailler jusqu'a 64 ans mais je serais remplacé par une IA prochainement... Quelle belle époque !
Bon, faut donc que je trouve une méthode pour vivre des aides, tranquille, loin du stress...
11  1 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/02/2023 à 11:10
Que penser de toute cette agitation autour de "l'intelligence artificielle" ?

D'abord, sur le principe il n'y a rien de nouveau. Les réseaux de neurones, algorithmes génétiques, la logique floue, les systèmes experts existent depuis des décennies. Au début des années 2000, j'avais moi même utilisé un algorithme génétique qui donnait "presque miraculeusement" rapidement de bons résultats à un problème d'optimisation.

Aujourd'hui, nous avons juste à disposition :

- des ordinateurs beaucoup plus rapides avec beaucoup plus de mémoire

- beaucoup de données exploitables facilement et directement, grâce (ou à cause) de l'usage de l'informatique dans la vie quotidienne et professionnelle.

Les résultats sont impressionnants, notamment grâce à la façon dont ils sont présentés : langage "naturel", synthèse vocale de bonne qualité, avatars en 3D voire vidéos réalistes.

Il faut garder la tête froide : ces dispositifs ne "réfléchissent" et ne "comprennent" pas du tout. Ce sont des boites noires, qui arrivent à sortir rapidement un résultat connu depuis les données dont ils disposent.

Ils sont similaires à une grande encyclopédie : une étagère complète de livres épais qui "connaissent" toutes les définitions, toutes les biographies, tous les faits historiques... pourtant personne ne va trouver une encyclopédie "intelligente".

Cette "intelligence artificielle" peut se planter de façon totalement imprévisible, comme le montrent les expérimentations sur la conduite autonome des voitures dans un milieu ouvert.

De plus, elle ne semblent pas pouvoir inventer des choses réellement nouvelles - attention, la grande quantité de données dont elles disposent peuvent laisser croire le contraire, car les capacités des datacenters actuels dépassent les capacités de mémorisations du commun des mortels. Si une IA vous donne l'impression d'avoir fait quelque chose de nouveau, c'est probablement parce qu'elle a des données sur quelque chose que vous ne connaissez pas, ce qui vous laisse croire que c'est nouveau.

En fait c'est ça la véritable leçon de l'histoire : aujourd'hui, l'humanité a accumulé tellement de connaissances sur tellement de sujets qu'il est impossible pour quelqu'un de tout savoir. Même si vous êtes touche-à-tout, que vous lisez beaucoup de livres et écoutez beaucoup de musique, à la fin de votre vie vous n'aurez vu, entendu et compris qu'une toute petite partie de ce qui a été dit ou écrit...
11  1 
Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 20/02/2023 à 13:07
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
La vie ne fonctionne pas comme ça, il faut que tu sortes de ton cocon pour t'en rendre compte.
Malheureusement, il y a des personnes qui préfèrent nourrir leur enfant en prenant les boulots qui nuise à la dignité plutôt que de n'avoir aucune rentrée d'argent !
8  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/04/2023 à 9:55
"Hey chatGPT, voilà toutes les donneés confidentielles économiques de mon entreprises, fait moi le rapport financier stp, j'ai la flème".
8  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1