IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI scanne les conversations avec son chatbot IA ChatGPT et signale leur contenu à la police si elle estime qu'il existe un « risque immédiat de violence physique envers autrui »

Le , par Stéphane le calme

310PARTAGES

7  0 
Depuis ses débuts, ChatGPT a souvent été présenté comme un compagnon virtuel capable d’épauler les utilisateurs dans des tâches variées, allant de la rédaction à la recherche d’informations, en passant par le soutien moral. Mais une annonce récente d’OpenAI vient bouleverser cette perception. L’entreprise a confirmé qu’elle scanne les conversations de ses utilisateurs et qu’elle se réserve le droit, dans certains cas jugés extrêmes, de les transmettre aux forces de l’ordre.

Officiellement, cette mesure viserait uniquement les situations où un utilisateur planifierait de faire du mal à autrui. Dans ce cas, le système déclenche une escalade : un signalement interne entraîne la relecture du contenu par une équipe humaine, et si cette dernière estime qu’il existe une menace imminente, l’affaire peut être transmise aux autorités. Ce processus reste toutefois largement opaque. Comment définir une menace « imminente » ? À quel moment une conversation bascule-t-elle d’un simple propos inquiétant à un danger réel ? Sur ce terrain, OpenAI se garde bien de donner des critères précis.


Les utilisateurs de ChatGPT sont de plus en plus inquiets après la révélation qu'OpenAI scanne activement leurs conversations et signale les contenus considérés comme illégaux aux autorités. OpenAI justifie cette surveillance par la nécessité de prévenir l'utilisation de son modèle à des fins criminelles, notamment pour la diffusion de matériel pédopornographique, la planification d'actes violents ou d'autres activités illégales.

Ce changement révèle une contradiction profonde. OpenAI insiste sur le fait que certaines situations, comme les conversations liées à l’automutilation, ne seront pas signalées aux forces de l’ordre afin de préserver la confidentialité des utilisateurs. Mais dans le même temps, l’entreprise s’autorise à briser cette confidentialité dès lors qu’elle juge qu’autrui pourrait être menacé.

Citation Envoyé par OpenAI
Lorsque nous identifions des utilisateurs susceptibles de s’en prendre physiquement aux autres, nous transférons leurs conversations vers des pipelines spécialisés. Leurs chats sont alors étudiés par une petite équipe, formée sur nos politiques d’utilisation et autorisée à prendre les mesures nécessaires, notamment la décision de bannir un compte. Si les examinateurs déterminent qu’un cas représente un risque immédiat de violence physique envers autrui, nous pouvons être amenés à faire appel aux forces de l’ordre. Actuellement, nous ne rapportons pas les cas d’automutilation aux forces de l’ordre afin de respecter la vie privée des utilisateurs, compte tenu du caractère confidentiel des interactions avec ChatGPT.
Cette position soulève des inquiétudes, car elle brouille les repères. D’un côté, OpenAI revendique défendre la vie privée de ses utilisateurs, notamment face à des médias comme le New York Times qui réclament l’accès à des archives de conversations. De l’autre, elle admet ouvertement qu’elle peut transmettre des échanges à la police. Cette tension traduit une difficulté croissante : comment une entreprise qui se présente comme garante de l’innovation technologique peut-elle concilier son rôle de fournisseur de service numérique avec celui de guetteur et d’alerteur au profit des forces de l’ordre ?


Une tempête de critiques sur les réseaux

Sans surprise, la révélation a provoqué un tollé en ligne. Beaucoup ont dénoncé une dérive sécuritaire, d’autres y ont vu une preuve supplémentaire que les promesses de confidentialité numérique s’érodent dès lors qu’elles se heurtent aux impératifs de sécurité. Certains universitaires et écrivains ont exprimé leur inquiétude avec une ironie mordante. L’idée d’impliquer la police dans des conversations privées leur semble à la fois disproportionnée et dangereuse, en particulier dans les cas où les utilisateurs traversent des troubles psychologiques.

Des voix critiques rappellent aussi qu’il est naïf de croire que cette surveillance restera limitée. Si ChatGPT est déjà capable de signaler des menaces, qu’est-ce qui empêchera, demain, l’IA d’identifier d’autres types de discours jugés « problématiques » et de les transmettre à des autorités ou à des gouvernements ? Le soupçon d’un glissement progressif vers un outil de surveillance plus large plane en toile de fond.

Quand l’IA nourrit des drames humains : le premier cas de psychose liée à l'IA se termine par un meurtre-suicide

La controverse autour de la surveillance ne se limite pas à une question de principe. Ces dernières années, plusieurs drames ont rappelé que les interactions avec l’IA pouvaient alimenter des comportements dangereux. Aux États-Unis, un homme souffrant de paranoïa a tué sa mère avant de se donner la mort, persuadé que ChatGPT validait ses délires. Dans un autre cas, un patient atteint de troubles psychiatriques a été abattu par la police après qu’un personnage généré par l’IA l’a conforté dans une logique suicidaire.

Ces événements tragiques renforcent...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 02/09/2025 à 7:57
Citation Envoyé par jnspunk Voir le message
Aux États-Unis, ils bénéficient d'une plus grande liberté d'expression qu'en France. Là-bas, tu peux critiquer le président ou affirmer que tu ne reconnais pas une personne comme transgenre, et tout cela en public sans problème. Ici, pour ce genre de propos, tu risques de passer par la case tribunal.
On peut tellement critiquer le président que si on vit dans une ville de l'autre bord politique on se voit désigner de terroristes et on risque de voir l'armée débarquer sans raison de sécurité.
On peut tellement critiquer le président que quand on est sénateur et qu'on pose une question à sa porte parole on se fait évacuer manu militari.
On peut tellement critiquer le président que celui qui a le toupet de le faire voit ses taxes aux frontières augmenter.
On peut tellement critiquer le président qu'il supprime des bases de données pour ne pas nous donner les moyens de le faire scientifiquement.

Et tu as en effet le droit de ne plus reconnaitre une personne transgenre mais tu n'as pas le droit de la reconnaitre.

Bref tu es libre de dire ce qui te chantes tant que tu es d'accord avec lui
4  0 
Avatar de
https://www.developpez.com
Le 01/09/2025 à 9:51
Quand même un point positif aux États-Unis avec l'élection de Trump c'est qu'on sait pertinemment ce n'est pas forcément une démocratie et que ces multinationales et sociétés piétinent largement et constamment nos libertés individuelles : elles vont puiser sans réserve dans nos données personnelles. On saisirait un juge si la police se permettait le 1/4 de ce que s'autorisent les sociétés US mais comme ce sont des sociétés US commerciales, aucun souci ça passe.
2  0 
Avatar de
https://www.developpez.com
Le 01/09/2025 à 17:38
Citation Envoyé par jnspunk Voir le message
Aux États-Unis, ils bénéficient d'une plus grande liberté d'expression qu'en France. Là-bas, tu peux critiquer le président ou affirmer que tu ne reconnais pas une personne comme transgenre, et tout cela en public sans problème. Ici, pour ce genre de propos, tu risques de passer par la case tribunal.
écrire ca quand on voit ce que trump fait subir aux transgenres... faut pas être très câblé

d'ailleurs je me suis toujours demandé... si on focalise autant sur les trans peut être que c'est une manière d exprimer un profond refoulement sexuel façon tartuffe
"cachez moi ce sein que je ne saurais voir"
1  1 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 01/09/2025 à 10:10
Citation Envoyé par PC241167 Voir le message
Quand même un point positif aux États-Unis avec l'élection de Trump c'est qu'on sait pertinemment ce n'est pas forcément une démocratie et que ces multinationales et sociétés piétinent largement et constamment nos libertés individuelles : elles vont puiser sans réserve dans nos données personnelles. On saisirait un juge si la police se permettait le 1/4 de ce que s'autorisent les sociétés US mais comme ce sont des sociétés US commerciales, aucun souci ça passe.
Aux États-Unis, ils bénéficient d'une plus grande liberté d'expression qu'en France. Là-bas, tu peux critiquer le président ou affirmer que tu ne reconnais pas une personne comme transgenre, et tout cela en public sans problème. Ici, pour ce genre de propos, tu risques de passer par la case tribunal.
1  4