IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie

Le , par Stéphane le calme

245PARTAGES

8  0 
OpenAI a annoncé la création d’un « Wellness Council » chargé de superviser les questions de santé mentale liées à l’usage de l’intelligence artificielle. Derrière cette initiative à première vue bienveillante, un paradoxe embarrassant a immédiatement émergé : aucun expert reconnu en prévention du suicide n’a été inclus. Alors que la société se trouve déjà sous le regard attentif de la Federal Trade Commission (FTC) et que ses modèles sont accusés d’influencer dangereusement le comportement émotionnel des utilisateurs, cette omission interroge à la fois sur la sincérité de la démarche et sur la gouvernance d’OpenAI.

OpenAI a annoncé mardi la création d'un conseil composé de huit experts qui conseilleront l'entreprise et fourniront des informations sur la manière dont l'intelligence artificielle pourrait affecter la santé mentale, les émotions et la motivation des utilisateurs. Ce groupe, baptisé « Expert Council on Well-Being and AI » (Conseil d'experts sur le bien-être et l'IA), guidera dans un premier temps les travaux d'OpenAI sur son chatbot ChatGPT et son application de vidéos courtes Sora, a indiqué l'entreprise. Grâce à des vérifications régulières et des réunions récurrentes, OpenAI a déclaré que le conseil l'aiderait à définir ce que sont des interactions saines avec l'IA.

La création du « Wellness Council » intervient dans un contexte tendu : OpenAI fait l’objet d’une enquête de la FTC sur la sécurité psychologique de ses produits, notamment ChatGPT, accusé d’avoir produit des réponses inappropriées à des utilisateurs en détresse. Le timing n’a rien d’anodin. L’entreprise cherche à se présenter comme proactive, soucieuse du bien-être des usagers, tout en évitant d’être perçue comme une société qui externalise les risques psychologiques de ses modèles à la collectivité.

OpenAI a renforcé ses contrôles de sécurité au cours des derniers mois, alors que l'entreprise fait l'objet d'une surveillance accrue quant à la manière dont elle protège ses utilisateurs, en particulier les mineurs.

En septembre, la Commission fédérale du commerce a ouvert une enquête sur plusieurs entreprises technologiques, dont OpenAI, afin de déterminer dans quelle mesure les chatbots tels que ChatGPT pouvaient avoir un impact négatif sur les enfants et les adolescents. OpenAI est également impliquée dans un procès pour homicide involontaire intenté par une famille qui accuse ChatGPT d'être responsable du suicide de leur fils adolescent.

Mais le scepticisme est immédiat. Plusieurs observateurs y voient une manœuvre de communication. OpenAI, à la suite d’autres controverses sur la modération des contenus ou l’opacité de ses partenariats avec Microsoft, cherche avant tout à restaurer sa légitimité morale et politique. Le « Wellness Council » serait alors une sorte de paravent — une institution symbolique sans véritable pouvoir de contrainte.


Qui sont les membres du Wellness Council et quels sont leurs parcours

Dans un communiqué de presse, OpenAI a expliqué que son Conseil d'experts sur le bien-être et l'IA a commencé à prendre forme après qu'OpenAI ait entamé des consultations informelles avec des experts sur le contrôle parental plus tôt cette année. Il est désormais officialisé et rassemble huit « chercheurs et experts de premier plan ayant des décennies d'expérience dans l'étude de l'impact de la technologie sur nos émotions, notre motivation et notre santé mentale » afin d'aider à orienter les mises à jour de ChatGPT.

L'une des priorités était de trouver « plusieurs membres du conseil ayant une expérience dans la conception de technologies favorisant le développement sain des jeunes », a déclaré OpenAI, « car les adolescents utilisent ChatGPT différemment des adultes ».

Cette initiative inclut David Bickham, directeur de recherche au Boston Children's Hospital, qui a suivi de près l'impact des réseaux sociaux sur la santé mentale des enfants, et Mathilde Cerioli, directrice scientifique d'une organisation à but non lucratif appelée Everyone.AI. Madame Cerioli étudie les opportunités et les risques liés à l'utilisation de l'IA par les enfants, en se concentrant particulièrement sur « la manière dont l'IA interfère avec le développement cognitif et émotionnel des enfants ».

Ces experts peuvent apparemment aider OpenAI à mieux comprendre comment les mesures de protection peuvent échouer auprès des enfants lors de conversations prolongées, afin de s'assurer que les enfants ne sont pas particulièrement vulnérables à ce qu'on appelle la « psychose de l'IA », un phénomène où des conversations prolongées déclenchent des problèmes de santé mentale.

En janvier, Bickham a noté dans un article de l'American Psychological Association sur l'IA dans l'éducation que « les jeunes enfants apprennent déjà des personnages » - comme lorsqu'ils regardent Sesame Street - et forment des « relations parasociales » avec ces personnages. Les chatbots IA pourraient être la prochaine frontière, remplissant éventuellement des rôles pédagogiques si nous en savons plus sur la façon dont les enfants tissent des liens avec les chatbots, a suggéré Bickham.

« Comment les enfants établissent-ils une relation avec ces IA, à quoi cela ressemble-t-il et quel impact cela pourrait-il avoir sur la capacité des IA à enseigner ? », s'est interrogé Bickham.

Cerioli surveille de près l'influence de l'IA dans le monde des enfants. Elle a suggéré le mois dernier que les enfants qui grandissent en utilisant l'IA risquent de voir leur cerveau se reconfigurer au point de « devenir incapables de gérer la contradiction », a rapporté Le Monde, en particulier « si leurs premières interactions sociales, à un âge où...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 09/11/2025 à 16:47
Porter plainte contre les fabricants de cordes empêcherait-il les gens de se pendre ?
3  2 
Avatar de Xavdeb
Futur Membre du Club https://www.developpez.com
Le 18/03/2026 à 18:55
On était moins regardant à l'époque du téléphone rose

Que s'est-il passé ?
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/03/2026 à 8:53
Citation Envoyé par Xavdeb Voir le message
On était moins regardant à l'époque du téléphone rose
L'imagination jouait un grand rôle, quand on est exposé à de la pornographie hardcore ça n'a pas le même effet sur le cerveau.

Le spectre de la pornographie est large, ça va du vraiment très soft (où l'imagination joue le rôle principal) à de l’extrême (où c'est graphique et le spectateur subis).
Si un enfant se met à regarder du contenu extrême ça peut avoir des conséquences négatives sur son cerveau.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 11:21
On résume: 1 mec parmi des millions d'autres dans le monde se confie à un programme informatique, fusse-t-il estampillé IA, et donc l'éditeur du logiciel devrait être au courant de l'affaire et prendre les mesures pour éviter que le mec en question passe aux actes???

Dans les pays européens, la procédure judiciaire n'aurait aucune chance d'aboutir en faveur de la plaignante mais aux USA tout est possible... Les USA où un fabricant de clavier pourrait être condamné à des centaines de millions de dommages et intérêts parce que l'un de ses utilisateurs s'est cassé un ongle en tapant sur une touche du clavier
0  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 17/03/2026 à 23:32
À ces risques psychologiques s'ajoute une faille technique béante. Le système de détection d'âge d'OpenAI identifiait à tort des mineurs comme des adultes dans environ 12 % des cas. Avec approximativement 100 millions d'utilisateurs mineurs par semaine, ce taux d'erreur pourrait donner accès à des contenus érotiques à des millions d'adolescents.
Comment ça, vous avez dit entre 10 et 30% d'hallucinations ?
Mais qui aurait pu prédire ?

Du cul, du cul, du cul : le credo d'une société à but non lucratif dont le seul objectif annoncé est la construction d'un monde-meilleur-qui-ne-serait-pas-atteignable-sans-sa-technologie.
2  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/03/2026 à 9:18
Citation Envoyé par Stéphane le calme Voir le message
En début mars 2026, OpenAI a reporté sine die le lancement du mode adulte, officiellement pour concentrer ses efforts sur d'autres produits. L'entreprise a toutefois précisé que la fonctionnalité était toujours prévue. La date n'a pas été communiquée.
Un mode pour adulte pourrait rapporter énormément d'argent.
Pour avoir accès au service il faudrait inscrire sa carte bancaire (plein de mineurs n'ont pas de carte bancaire).

Les mineurs peuvent facilement accéder à de la pornographie ailleurs, donc l'argument de « l'accès à des contenus érotiques à des millions d'adolescents » ne fonctionne pas du tout pour moi.
Il suffit d'avoir une adresse spéciale pour le mode adulte et que l'adresse soit dans la liste noire du filtre parentale et voilà.
2  3 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 23/03/2026 à 14:38
ils n'auront pas le choix.

openai est concurrencé par les gafams qui ont des fonds illimités (google...), il faudra bien trouver de l'argent.
Historiquement, le XXX a toujours été une bonne source de revenue. Xavier Niel a commencé par la en france par exemple.
La question ne se pose même pas, chatgpt va devoir générer du porn si la boite veut survivre. Et elle va devoir le faire mieux que Grok et les autres.
0  1