OpenAI a annoncé la création d’un « Wellness Council » chargé de superviser les questions de santé mentale liées à l’usage de l’intelligence artificielle. Derrière cette initiative à première vue bienveillante, un paradoxe embarrassant a immédiatement émergé : aucun expert reconnu en prévention du suicide n’a été inclus. Alors que la société se trouve déjà sous le regard attentif de la Federal Trade Commission (FTC) et que ses modèles sont accusés d’influencer dangereusement le comportement émotionnel des utilisateurs, cette omission interroge à la fois sur la sincérité de la démarche et sur la gouvernance d’OpenAI.OpenAI a annoncé mardi la création d'un conseil composé de huit experts qui conseilleront l'entreprise et fourniront des informations sur la manière dont l'intelligence artificielle pourrait affecter la santé mentale, les émotions et la motivation des utilisateurs. Ce groupe, baptisé « Expert Council on Well-Being and AI » (Conseil d'experts sur le bien-être et l'IA), guidera dans un premier temps les travaux d'OpenAI sur son chatbot ChatGPT et son application de vidéos courtes Sora, a indiqué l'entreprise. Grâce à des vérifications régulières et des réunions récurrentes, OpenAI a déclaré que le conseil l'aiderait à définir ce que sont des interactions saines avec l'IA.
La création du « Wellness Council » intervient dans un contexte tendu : OpenAI fait l’objet d’une enquête de la FTC sur la sécurité psychologique de ses produits, notamment ChatGPT, accusé d’avoir produit des réponses inappropriées à des utilisateurs en détresse. Le timing n’a rien d’anodin. L’entreprise cherche à se présenter comme proactive, soucieuse du bien-être des usagers, tout en évitant d’être perçue comme une société qui externalise les risques psychologiques de ses modèles à la collectivité.
OpenAI a renforcé ses contrôles de sécurité au cours des derniers mois, alors que l'entreprise fait l'objet d'une surveillance accrue quant à la manière dont elle protège ses utilisateurs, en particulier les mineurs.
En septembre, la Commission fédérale du commerce a ouvert une enquête sur plusieurs entreprises technologiques, dont OpenAI, afin de déterminer dans quelle mesure les chatbots tels que ChatGPT pouvaient avoir un impact négatif sur les enfants et les adolescents. OpenAI est également impliquée dans un procès pour homicide involontaire intenté par une famille qui accuse ChatGPT d'être responsable du suicide de leur fils adolescent.
Mais le scepticisme est immédiat. Plusieurs observateurs y voient une manœuvre de communication. OpenAI, à la suite d’autres controverses sur la modération des contenus ou l’opacité de ses partenariats avec Microsoft, cherche avant tout à restaurer sa légitimité morale et politique. Le « Wellness Council » serait alors une sorte de paravent — une institution symbolique sans véritable pouvoir de contrainte.
Qui sont les membres du Wellness Council et quels sont leurs parcours
Dans un communiqué de presse, OpenAI a expliqué que son Conseil d'experts sur le bien-être et l'IA a commencé à prendre forme après qu'OpenAI ait entamé des consultations informelles avec des experts sur le contrôle parental plus tôt cette année. Il est désormais officialisé et rassemble huit « chercheurs et experts de premier plan ayant des décennies d'expérience dans l'étude de l'impact de la technologie sur nos émotions, notre motivation et notre santé mentale » afin d'aider à orienter les mises à jour de ChatGPT.
L'une des priorités était de trouver « plusieurs membres du conseil ayant une expérience dans la conception de technologies favorisant le développement sain des jeunes », a déclaré OpenAI, « car les adolescents utilisent ChatGPT différemment des adultes ».
Cette initiative inclut David Bickham, directeur de recherche au Boston Children's Hospital, qui a suivi de près l'impact des réseaux sociaux sur la santé mentale des enfants, et Mathilde Cerioli, directrice scientifique d'une organisation à but non lucratif appelée Everyone.AI. Madame Cerioli étudie les opportunités et les risques liés à l'utilisation de l'IA par les enfants, en se concentrant particulièrement sur « la manière dont l'IA interfère avec le développement cognitif et émotionnel des enfants ».
Ces experts peuvent apparemment aider OpenAI à mieux comprendre comment les mesures de protection peuvent échouer auprès des enfants lors de conversations prolongées, afin de s'assurer que les enfants ne sont pas particulièrement vulnérables à ce qu'on appelle la « psychose de l'IA », un phénomène où des conversations prolongées déclenchent des problèmes de santé mentale.
En janvier, Bickham a noté dans un article de l'American Psychological Association sur l'IA dans l'éducation que « les jeunes enfants apprennent déjà des personnages » - comme lorsqu'ils regardent Sesame Street - et forment des « relations parasociales » avec ces personnages. Les chatbots IA pourraient être la prochaine frontière, remplissant éventuellement des rôles pédagogiques si nous en savons plus sur la façon dont les enfants tissent des liens avec les chatbots, a suggéré Bickham.
« Comment les enfants établissent-ils une relation avec ces IA, à quoi cela ressemble-t-il et quel impact cela pourrait-il avoir sur la capacité des IA à enseigner ? », s'est interrogé Bickham.
Cerioli surveille de près l'influence de l'IA dans le monde des enfants. Elle a suggéré le mois dernier que les enfants qui grandissent en utilisant l'IA risquent de voir leur cerveau se reconfigurer au point de « devenir incapables de gérer la contradiction », a rapporté Le Monde, en particulier « si leurs premières interactions sociales, à un âge où...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.