IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie

Le , par Stéphane le calme

1PARTAGES

7  0 
OpenAI a annoncé la création d’un « Wellness Council » chargé de superviser les questions de santé mentale liées à l’usage de l’intelligence artificielle. Derrière cette initiative à première vue bienveillante, un paradoxe embarrassant a immédiatement émergé : aucun expert reconnu en prévention du suicide n’a été inclus. Alors que la société se trouve déjà sous le regard attentif de la Federal Trade Commission (FTC) et que ses modèles sont accusés d’influencer dangereusement le comportement émotionnel des utilisateurs, cette omission interroge à la fois sur la sincérité de la démarche et sur la gouvernance d’OpenAI.

OpenAI a annoncé mardi la création d'un conseil composé de huit experts qui conseilleront l'entreprise et fourniront des informations sur la manière dont l'intelligence artificielle pourrait affecter la santé mentale, les émotions et la motivation des utilisateurs. Ce groupe, baptisé « Expert Council on Well-Being and AI » (Conseil d'experts sur le bien-être et l'IA), guidera dans un premier temps les travaux d'OpenAI sur son chatbot ChatGPT et son application de vidéos courtes Sora, a indiqué l'entreprise. Grâce à des vérifications régulières et des réunions récurrentes, OpenAI a déclaré que le conseil l'aiderait à définir ce que sont des interactions saines avec l'IA.

La création du « Wellness Council » intervient dans un contexte tendu : OpenAI fait l’objet d’une enquête de la FTC sur la sécurité psychologique de ses produits, notamment ChatGPT, accusé d’avoir produit des réponses inappropriées à des utilisateurs en détresse. Le timing n’a rien d’anodin. L’entreprise cherche à se présenter comme proactive, soucieuse du bien-être des usagers, tout en évitant d’être perçue comme une société qui externalise les risques psychologiques de ses modèles à la collectivité.

OpenAI a renforcé ses contrôles de sécurité au cours des derniers mois, alors que l'entreprise fait l'objet d'une surveillance accrue quant à la manière dont elle protège ses utilisateurs, en particulier les mineurs.

En septembre, la Commission fédérale du commerce a ouvert une enquête sur plusieurs entreprises technologiques, dont OpenAI, afin de déterminer dans quelle mesure les chatbots tels que ChatGPT pouvaient avoir un impact négatif sur les enfants et les adolescents. OpenAI est également impliquée dans un procès pour homicide involontaire intenté par une famille qui accuse ChatGPT d'être responsable du suicide de leur fils adolescent.

Mais le scepticisme est immédiat. Plusieurs observateurs y voient une manœuvre de communication. OpenAI, à la suite d’autres controverses sur la modération des contenus ou l’opacité de ses partenariats avec Microsoft, cherche avant tout à restaurer sa légitimité morale et politique. Le « Wellness Council » serait alors une sorte de paravent — une institution symbolique sans véritable pouvoir de contrainte.


Qui sont les membres du Wellness Council et quels sont leurs parcours

Dans un communiqué de presse, OpenAI a expliqué que son Conseil d'experts sur le bien-être et l'IA a commencé à prendre forme après qu'OpenAI ait entamé des consultations informelles avec des experts sur le contrôle parental plus tôt cette année. Il est désormais officialisé et rassemble huit « chercheurs et experts de premier plan ayant des décennies d'expérience dans l'étude de l'impact de la technologie sur nos émotions, notre motivation et notre santé mentale » afin d'aider à orienter les mises à jour de ChatGPT.

L'une des priorités était de trouver « plusieurs membres du conseil ayant une expérience dans la conception de technologies favorisant le développement sain des jeunes », a déclaré OpenAI, « car les adolescents utilisent ChatGPT différemment des adultes ».

Cette initiative inclut David Bickham, directeur de recherche au Boston Children's Hospital, qui a suivi de près l'impact des réseaux sociaux sur la santé mentale des enfants, et Mathilde Cerioli, directrice scientifique d'une organisation à but non lucratif appelée Everyone.AI. Madame Cerioli étudie les opportunités et les risques liés à l'utilisation de l'IA par les enfants, en se concentrant particulièrement sur « la manière dont l'IA interfère avec le développement cognitif et émotionnel des enfants ».

Ces experts peuvent apparemment aider OpenAI à mieux comprendre comment les mesures de protection peuvent échouer auprès des enfants lors de conversations prolongées, afin de s'assurer que les enfants ne sont pas particulièrement vulnérables à ce qu'on appelle la « psychose de l'IA », un phénomène où des conversations prolongées déclenchent des problèmes de santé mentale.

En janvier, Bickham a noté dans un article de l'American Psychological Association sur l'IA dans l'éducation que « les jeunes enfants apprennent déjà des personnages » - comme lorsqu'ils regardent Sesame Street - et forment des « relations parasociales » avec ces personnages. Les chatbots IA pourraient être la prochaine frontière, remplissant éventuellement des rôles pédagogiques si nous en savons plus sur la façon dont les enfants tissent des liens avec les chatbots, a suggéré Bickham.

« Comment les enfants établissent-ils une relation avec ces IA, à quoi cela ressemble-t-il et quel impact cela pourrait-il avoir sur la capacité des IA à enseigner ? », s'est interrogé Bickham.

Cerioli surveille de près l'influence de l'IA dans le monde des enfants. Elle a suggéré le mois dernier que les enfants qui grandissent en utilisant l'IA risquent de voir leur cerveau se reconfigurer au point de « devenir incapables de gérer la contradiction », a rapporté Le Monde, en particulier « si leurs premières interactions sociales, à un âge où leurs circuits neuronaux sont très malléables, se font avec des entités infiniment accommodantes ».

Voici comment OpenAI les a présenté :
  1. David Bickham, Ph.D. — Directeur de recherche au Digital Wellness Lab du Boston Children's Hospital et professeur adjoint à la Harvard Medical School. Ses travaux portent sur l'impact de l'utilisation des réseaux sociaux par les jeunes sur leur santé mentale et leur développement.
  2. Mathilde Cerioli, Ph.D. — Directrice scientifique chez everyone.AI, une organisation à but non lucratif qui aide les gens à comprendre les opportunités et les risques de l'IA pour les enfants. Titulaire d'un doctorat en neurosciences cognitives et d'une maîtrise en psychologie, ses recherches portent sur l'interaction entre l'IA et le développement cognitif et émotionnel des enfants.
  3. Munmun De Choudhury, Ph.D. — Professeure J. Z. Liang d'informatique interactive à Georgia Tech. Elle utilise des approches computationnelles pour mieux comprendre le rôle des technologies en ligne dans le développement et l'amélioration de la santé mentale.
  4. Tracy Dennis-Tiwary, Ph.D. — Professeure de psychologie au Hunter College et cofondatrice et directrice scientifique chez Arcade Therapeutics. Elle crée des jeux numériques pour la santé mentale et explore les interactions entre la technologie et le bien-être émotionnel.
  5. Sara Johansen, M.D. — Professeure clinique adjointe à l'université de Stanford et fondatrice de la clinique de santé mentale numérique de Stanford. Ses travaux explorent comment les plateformes numériques peuvent soutenir la santé mentale et le bien-être.
  6. David Mohr, Ph.D. — Professeur à l'université Northwestern et directeur du Center for Behavioral Intervention Technologies. Il étudie comment la technologie peut aider à prévenir et à traiter les troubles mentaux courants tels que la dépression et l'anxiété.
  7. Andrew K. Przybylski, Ph.D. — Professeur en comportement humain et technologie à l'université d'Oxford. Il étudie comment les réseaux sociaux et les jeux vidéo influencent la motivation et le bien-être.
  8. Robert K. Ross, M.D. — Leader national et expert en philanthropie dans le domaine de la santé, en santé publique et en initiatives communautaires en matière de santé. Il a commencé sa carrière comme pédiatre et est l'ancien président-directeur général de The California Endowment.

Un « conseil du bien-être » sans spécialiste du suicide : la faille centrale

Ce qui choque, c’est l’absence d’un expert en prévention du suicide dans un comité censé encadrer la santé mentale à l’ère de l’IA. Plusieurs rapports récents ont souligné que des utilisateurs de modèles conversationnels avaient déjà partagé des intentions suicidaires avec des IA, et que les réponses apportées par ces systèmes étaient souvent mal calibrées, parfois même encourageantes par maladresse algorithmique.

Des psychiatres et associations de santé publique ont exprimé leur incompréhension. L’un d’eux résume le malaise : « C’est comme créer un comité sur la sécurité aérienne sans ingénieur en aérospatiale. » La composition du conseil, dominée par des experts en éthique, en neuroscience cognitive et en design d’interfaces, mais sans présence de cliniciens spécialisés dans la crise suicidaire, soulève une question plus large : OpenAI comprend-elle réellement la nature des risques humains engendrés par ses modèles ?

Une stratégie d’image plus qu’un mécanisme de responsabilité

L’initiative semble avant tout conçue pour donner des gages à Washington et à l’opinion publique. Après les critiques essuyées pour la suppression soudaine de son ancien « Superalignment team » – l’équipe chargée de prévenir les dérives dangereuses des futurs modèles –, OpenAI tente de montrer qu’elle prend la sécurité « émotionnelle » au sérieux.

Mais le choix des membres, majoritairement proches du monde académique et technologique, traduit une autre logique : celle du contrôle narratif plutôt que du contrôle des risques.

Autrement dit, il s’agit moins d’apporter des solutions que de reprendre la main sur le récit moral de l’entreprise.

L’absence de transparence sur le mandat réel du conseil renforce cette impression. Aucune information n’a été fournie sur son...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !