
Lancé fin novembre 2022, ChatGPT s'est popularisé très rapidement et est aujourd'hui utilisé par plus de 100 millions de personnes dans le monde. Mais ce qui retient le plus l'attention depuis lundi, c'est un problème de sécurité du chatbot qui pourrait avoir des conséquences fâcheuses pour certains utilisateurs. En effet, l'interface utilisateur de ChatGPT comporte une barre latérale qui affiche les conversations passées, visibles uniquement par l'utilisateur qui les a eues. Mais plusieurs utilisateurs ont signalé que ChatGPT leur montrait l'historique d'autres personnes. Les utilisateurs de ChatGPT ont fait valoir qu'il ne s'agissait pas du résultat d'un exploit.
Un utilisateur a signalé qu'il n'était pas en mesure de voir l'ensemble du journal de chat, mais seulement le titre des différents chats. Un utilisateur de Reddit a repéré des conversations menées en chinois. Il a partagé une capture d'écran sur Twitter sur laquelle on peut lire le titre des conversations auxquelles il a eu accès. Mais l'on ignore si certains utilisateurs ont réussi à accéder au contenu des conversations que ChatGPT a partagé avec eux. La plupart des utilisateurs ont toutefois signalé que le chatbot ne leur a pas donné accès au contenu des conversations. Si vous cliquez sur le titre d'une discussion passée, le programme ne parvient pas à la charger.
@OpenAI why are you giving me foreign languages in my chat history side column this morning?
— Joseph Hollak (@jhollak) March 20, 2023
Have you been hacked?#ChatGPT pic.twitter.com/UdhVQxSKzK
Il semble également que, dans d'autres cas, ChatGPT n'affiche que des termes génériques lors de l'affichage d'historiques de chat provenant éventuellement d'anciens utilisateurs, en omettant toute information permettant d'identifier la personne. Ainsi, il n'est pas évident de savoir de quelle personne provient l'historique du chat. Ce bogue apparent suscite des inquiétudes quant à la protection de la vie privée des utilisateurs. Si vous avez saisi des informations personnelles dans l'historique d'un chat, l'erreur pourrait potentiellement faire apparaître ces mêmes informations à un étranger. Pour le moment, aucun rapport n'a fait état d'une telle divulgation.
L'origine du problème reste encore inconnue. Il n'est donc pas clair si ChatGPT faisait réellement apparaître les historiques de chat d'autres profils, ou si le programme inventait simplement les invites passées. Mais OpenAI a signalé une panne de ChatGPT vers 10h du matin (heure de Paris) après que les utilisateurs ont remarqué le problème avec les historiques de chat. L'entreprise n'a pas répondu aux demandes de commentaires, mais a déclaré qu'elle a ouvert une enquête pour déterminer les causes ayant conduit à cette divulgation. Elle fait également l'objet de critiques de la part de certains utilisateurs et des groupes de défense de la vie privée.
Lundi, certains utilisateurs ont également signalé que la page de paiement de ChatGPT Plus pourrait exposer des adresses électroniques appartenant à des utilisateurs aléatoires. Le bogue apparent souligne un risque lié à l'utilisation de ChatGPT : comme tout service Web public, il peut lui aussi faire l'objet d'une violation potentielle des données. La politique de confidentialité d'OpenAI indique qu'elle peut partager "des informations agrégées telles que des statistiques générales sur les utilisateurs avec des tiers, publier ces informations agrégées ou les mettre à la disposition du public". OpenAI affirme que les conversations servent à améliorer le système.
L'entreprise utilise les conversations pour entraîner le système et les conversations sont examinées par des "formateurs d'IA" dans le cadre de ce processus. « Dans le cadre de notre engagement en faveur d'une IA sûre et responsable, nous examinons les conversations pour améliorer nos systèmes et de nous assurer que le contenu est conforme à nos politiques et à nos exigences en matière de sécurité. Veuillez ne pas partager des informations sensibles dans vos conversations », indique la FAQ sur ChatGPT. Cependant, malgré les déclarations de l'entreprise, les experts ont toujours souligné le manque de fiabilité dans l'exactitude des réponses de ChatGPT.
« Je comprends qu'il ne s'agit pas d'un service trivial à mettre à l'échelle et à déployer. Mais malgré le fait que je paie 20 $ par mois pour utiliser ChatGPT de manière fiable, il est l'un des produits les moins fiables et les moins utiles auxquels je suis abonné. C'est essentiellement un jouet, et bien que je sois curieux d'apprendre à l'utiliser efficacement et de comprendre comment il pourrait s'intégrer dans mes flux de travail, je ne peux pas m'empêcher de penser que je leur fais plus de faveurs qu'ils n'en font à moi. C'est un peu comme si ChatGPT Plus était plus un don qu'un produit légitime », peut-on lire dans un commentaire sur Hacker News.
« En plus d'être très peu fiable, l'interface utilisateur et l'expérience globale ne sont pas très bonnes, malgré des exigences très simples. Les choses se cassent tout le temps, les sessions des utilisateurs semblent se briser de manière peu claire, et maintenant je suppose que les gens reçoivent les mauvaises entrées de l'historique. Je veux continuer à l'utiliser pour apprendre, mais je n'aime vraiment pas payer pour un service aussi mal implémenté. Vu qu'il n'y a pas un concurrent de taille, je suppose que nous devons nous en accommoder pour le moment », a ajouté cet utilisateur. Des utilisateurs sont parvenus à exploiter les faiblesses de ChatGPT.
@OpenAI Chat GPT loaded someone else's chat history today. Complete #violation of #privacy #ChatGPT
— Varun Giridhara (@iamvarung) March 20, 2023
These chat histories are not mine. pic.twitter.com/i99WuwFtAh
Une astuce, appelée injection d'invite, permet aux utilisateurs de ChatGPT de lui faire avaliser la transphobie, le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.