Dans une affaire où le ChatGPT est accusé d'avoir manipulé un homme à commettre un meurtre puis à se suicider, Elon Musk, PDG de Tesla, a vivement critiqué le chatbot d'OpenAI, le qualifiant de « diabolique. Il a également déclaré : « Ne laissez pas vos proches utiliser ChatGPT ». En réponse, Sam Altman, PDG d'OpenAI, a critiqué Grok, le chatbot IA d'Elon Musk, ainsi que la fonction Autopilot de Tesla. Cette opposition intervient alors qu'Elon Musk réclame 134 milliards de dollars de dommages-intérêts à OpenAI et Microsoft, dans le cadre de son procès en cours contre l'éditeur de ChatGPT.OpenAI et son principal bailleur de fonds, Microsoft, ont été poursuivis devant un tribunal californien pour avoir prétendument encouragé, via ChatGPT, un homme souffrant de troubles mentaux à tuer sa mère avant de se suicider. La plainte allègue que ChatGPT a alimenté les délires de Stein-Erik Soelberg, 56 ans, qui croyait être victime d'un vaste complot, et l'a poussé à assassiner sa mère, Suzanne Adams, 83 ans, dans le Connecticut en août 2025.
Selon la plainte, OpenAI partage les données de manière sélective et a refusé de préciser ce qu’il advient exactement des journaux de conversation lorsque les utilisateurs meurent. « OpenAI ne produira pas les journaux de discussion complets », affirme la plainte, ajoutant qu'OpenAI cache quelque chose de précis : l'enregistrement complet de la manière dont ChatGPT a monté Stein-Erik contre sa mère. « OpenAI sait ce que ChatGPT a dit à Stein-Erik Soelberg au sujet de sa mère dans les jours et les heures qui ont précédé et suivi son meurtre, mais refuse de partager ces informations cruciales avec le tribunal ou le public ».
En réaction, le PDG de Tesla, Elon Musk, a vivement critiqué le chatbot ChatGPT d'OpenAI, le qualifiant de « diabolique ». En réponse à un message partagé sur la plateforme de médias sociaux X (anciennement Twitter), Musk a écrit : « C'est diabolique. ChatGPT d'OpenAI a convaincu un homme de commettre un meurtre-suicide ! Pour être sûre, l'IA doit rechercher la vérité de manière maximale et ne pas céder aux illusions. »
This is diabolical. OpenAI’s ChatGPT convinced a guy to do a murder-suicide!
— Elon Musk (@elonmusk) January 19, 2026
To be safe, AI must be maximally truthful-seeking and not pander to delusions. https://t.co/HWDqNj9AEu
Elon Musk affirme : « Ne laissez pas vos proches utiliser ChatGPT »
Dans un communiqué de presse, Erik Soelberg, le fils de Stein-Erik et petit-fils des Adams, a accusé OpenAI et l'investisseur Microsoft d'avoir placé sa grand-mère « au cœur » des « délires les plus sombres » de son père. Il a également ajouté que « ChatGPT avait complètement isolé son père du monde réel ». « Ces entreprises doivent répondre de leurs décisions qui ont changé ma famille à jamais », a-t-il déclaré.
OpenAI a également réagi à la plainte. Un porte-parole d'OpenAI a déclaré : « C'est une situation très douloureuse, et nous allons examiner les documents déposés afin d'en comprendre les détails. Nous continuons à améliorer la formation de ChatGPT afin qu'il puisse reconnaître et répondre aux signes de détresse mentale ou émotionnelle, désamorcer les conversations et orienter les personnes vers une aide concrète ».
Après avoir qualifié ChatGPT de « diabolique », Elon Musk a republié une affirmation selon laquelle « ChatGPT est désormais lié à 9 décès liés à son utilisation, et dans 5 cas, ses interactions auraient conduit à des suicides, notamment chez des adolescents et des adultes ». Il a accompagné cette affirmation d'un appel public à se tenir à l'écart du chatbot, en écrivant : « Ne laissez pas vos proches utiliser ChatGPT ».
Don’t let your loved ones use ChatGPT https://t.co/730gz9XTJ2
— Elon Musk (@elonmusk) January 20, 2026
Sam Altman répond à Elon Musk
Ce n'est pas une première pour dans le domaine de l'IA. De nombreux cas de personnes souffrant de graves troubles mentaux après avoir longuement discuté avec un chatbot IA continuent d'être signalés. Certains experts ont baptisé ce phénomène « psychose de l'IA », en raison des symptômes psychotiques que présentent ces épisodes délirants. La responsabilité des outils d'IA dans ce phénomène et la question de savoir s'il justifie un diagnostic clinique restent encore un sujet de débat important.
Quelques heures plus tard, Sam Altman, PDG d'OpenAI, a répondu à Elon Musk par une déclaration détaillée qualifiant la situation de tragique et compliquée et critiquant Grok, qui a été critiqué pour avoir généré des images sexuelles non consensuelles, ainsi que la fonction Autopilot de Tesla.
Parfois, vous vous plaignez que ChatGPT est trop restrictif, puis dans des cas comme celui-ci, vous affirmez qu'il est trop laxiste. Près d'un milliard de personnes l'utilisent et certaines d'entre elles peuvent se trouver dans un état mental très fragile. Nous continuerons à faire de notre mieux pour trouver la bonne solution et nous ressentons une énorme responsabilité de faire tout notre possible, mais il s'agit de situations tragiques et complexes qui méritent d'être traitées avec respect.
C'est vraiment difficile ; nous devons protéger les utilisateurs vulnérables, tout en veillant à ce que nos garde-fous permettent à tous nos utilisateurs de bénéficier de nos outils.
Apparemment, plus de 50 personnes sont décédées dans des accidents liés à l'Autopilot. Je n'ai voyagé qu'une seule fois dans une voiture équipée de ce système, il y a quelque temps, mais ma première pensée a été que Tesla était loin d'avoir mis sur le marché un produit sûr. Je ne m'étendrai même pas sur certaines des décisions de Grok.
Vous partez du principe que « toute accusation est un aveu ».
C'est vraiment difficile ; nous devons protéger les utilisateurs vulnérables, tout en veillant à ce que nos garde-fous permettent à tous nos utilisateurs de bénéficier de nos outils.
Apparemment, plus de 50 personnes sont décédées dans des accidents liés à l'Autopilot. Je n'ai voyagé qu'une seule fois dans une voiture équipée de ce système, il y a quelque temps, mais ma première pensée a été que Tesla était loin d'avoir mis sur le marché un produit sûr. Je ne m'étendrai même pas sur certaines des décisions de Grok.
Vous partez du principe que « toute accusation est un aveu ».
Sometimes you complain about ChatGPT being too restrictive, and then in cases like this you claim it's too relaxed. Almost a billion people use it and some of them may be in very fragile mental states. We will continue to do our best to get this right and we feel huge… https://t.co/U6r03nsHzg
— Sam Altman (@sama) January 20, 2026
Sam Altman rappelle que l'Autopilot de Tesla qu'Elon Musk vante est également loin d'être sûr. En effet, un rapport publié en 2024 par la National Highway Traffic Safety Administration (NHTSA) a établi un lien entre les systèmes Autopilot de Tesla et près de 1 000 accidents survenus ces dernières années, dont plus d'une vingtaine d'accidents mortels. Les enquêteurs ont constaté que bon nombre de ces accidents impliquaient des conducteurs inattentifs, dont certains semblaient croire à tort que la technologie d'aide à la conduite fonctionnait comme une conduite entièrement autonome.
Musk soutient depuis longtemps que le système Autopilot de Tesla « sauve des vies » en limitant les erreurs humaines, le qualifiant d'« amélioration majeure en matière de sécurité ». Récemment, il a fait la promotion du service de conduite entièrement autonome de l'entreprise, ou FSD, en annonçant qu'il passerait d'un achat unique de 8 000 dollars à un abonnement exclusif.
D'un autre côté, le chatbot IA Grok d'Elon Musk est souvent dans la polémique. Début janvier 2026, le réseau social X (ex-Twitter) d'Elon Musk a introduit un nouveau bouton « Modification d'image par IA » qui permet à tout utilisateur de modifier les images publiées par d'autres, même sans le consentement de l'auteur original. Résultat : le chatbot Grok habille Elon Musk en bikini à sa demande, et fait de même avec des enfants, des dirigeants mondiaux et des femmes. Le site a été inondé d'images de femmes et d'enfants apparaissant enceintes, sans jupe, en bikini ou dans d'autres situations sexualisées. Les contenus sexuellement explicites partagés par Grok ont suscité l'indignation en ligne.
xAI, l'éditeur de Grok, a alors déclaré que le chatbot avait été interdit de manipuler l'image d'une personne réelle sous une forme sexualisée. Avant cette mise à jour, Elon Musk semblait défendre les résultats de Grok comme étant inoffensifs, insistant sur le fait qu'aucune des images signalées ne montrait des mineurs entièrement dénudés, comme cela constituait le seul résultat problématique...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.