Lancé fin novembre 2022, ChatGPT s'est popularisé très rapidement et est aujourd'hui utilisé par plus de 100 millions de personnes dans le monde. Mais ce qui retient le plus l'attention depuis lundi, c'est un problème de sécurité du chatbot qui pourrait avoir des conséquences fâcheuses pour certains utilisateurs. En effet, l'interface utilisateur de ChatGPT comporte une barre latérale qui affiche les conversations passées, visibles uniquement par l'utilisateur qui les a eues. Mais plusieurs utilisateurs ont signalé que ChatGPT leur montrait l'historique d'autres personnes. Les utilisateurs de ChatGPT ont fait valoir qu'il ne s'agissait pas du résultat d'un exploit.
Un utilisateur a signalé qu'il n'était pas en mesure de voir l'ensemble du journal de chat, mais seulement le titre des différents chats. Un utilisateur de Reddit a repéré des conversations menées en chinois. Il a partagé une capture d'écran sur Twitter sur laquelle on peut lire le titre des conversations auxquelles il a eu accès. Mais l'on ignore si certains utilisateurs ont réussi à accéder au contenu des conversations que ChatGPT a partagé avec eux. La plupart des utilisateurs ont toutefois signalé que le chatbot ne leur a pas donné accès au contenu des conversations. Si vous cliquez sur le titre d'une discussion passée, le programme ne parvient pas à la charger.
@OpenAI why are you giving me foreign languages in my chat history side column this morning?
— Joseph Hollak (@jhollak) March 20, 2023
Have you been hacked?#ChatGPT pic.twitter.com/UdhVQxSKzK
Il semble également que, dans d'autres cas, ChatGPT n'affiche que des termes génériques lors de l'affichage d'historiques de chat provenant éventuellement d'anciens utilisateurs, en omettant toute information permettant d'identifier la personne. Ainsi, il n'est pas évident de savoir de quelle personne provient l'historique du chat. Ce bogue apparent suscite des inquiétudes quant à la protection de la vie privée des utilisateurs. Si vous avez saisi des informations personnelles dans l'historique d'un chat, l'erreur pourrait potentiellement faire apparaître ces mêmes informations à un étranger. Pour le moment, aucun rapport n'a fait état d'une telle divulgation.
L'origine du problème reste encore inconnue. Il n'est donc pas clair si ChatGPT faisait réellement apparaître les historiques de chat d'autres profils, ou si le programme inventait simplement les invites passées. Mais OpenAI a signalé une panne de ChatGPT vers 10h du matin (heure de Paris) après que les utilisateurs ont remarqué le problème avec les historiques de chat. L'entreprise n'a pas répondu aux demandes de commentaires, mais a déclaré qu'elle a ouvert une enquête pour déterminer les causes ayant conduit à cette divulgation. Elle fait également l'objet de critiques de la part de certains utilisateurs et des groupes de défense de la vie privée.
Lundi, certains utilisateurs ont également signalé que la page de paiement de ChatGPT Plus pourrait exposer des adresses électroniques appartenant à des utilisateurs aléatoires. Le bogue apparent souligne un risque lié à l'utilisation de ChatGPT : comme tout service Web public, il peut lui aussi faire l'objet d'une violation potentielle des données. La politique de confidentialité d'OpenAI indique qu'elle peut partager "des informations agrégées telles que des statistiques générales sur les utilisateurs avec des tiers, publier ces informations agrégées ou les mettre à la disposition du public". OpenAI affirme que les conversations servent à améliorer le système.
L'entreprise utilise les conversations pour entraîner le système et les conversations sont examinées par des "formateurs d'IA" dans le cadre de ce processus. « Dans le cadre de notre engagement en faveur d'une IA sûre et responsable, nous examinons les conversations pour améliorer nos systèmes et de nous assurer que le contenu est conforme à nos politiques et à nos exigences en matière de sécurité. Veuillez ne pas partager des informations sensibles dans vos conversations », indique la FAQ sur ChatGPT. Cependant, malgré les déclarations de l'entreprise, les experts ont toujours souligné le manque de fiabilité dans l'exactitude des réponses de ChatGPT.
« Je comprends qu'il ne s'agit pas d'un service trivial à mettre à l'échelle et à déployer. Mais malgré le fait que je paie 20 $ par mois pour utiliser ChatGPT de manière fiable, il est l'un des produits les moins fiables et les moins utiles auxquels je suis abonné. C'est essentiellement un jouet, et bien que je sois curieux d'apprendre à l'utiliser efficacement et de comprendre comment il pourrait s'intégrer dans mes flux de travail, je ne peux pas m'empêcher de penser que je leur fais plus de faveurs qu'ils n'en font à moi. C'est un peu comme si ChatGPT Plus était plus un don qu'un produit légitime », peut-on lire dans un commentaire sur Hacker News.
« En plus d'être très peu fiable, l'interface utilisateur et l'expérience globale ne sont pas très bonnes, malgré des exigences très simples. Les choses se cassent tout le temps, les sessions des utilisateurs semblent se briser de manière peu claire, et maintenant je suppose que les gens reçoivent les mauvaises entrées de l'historique. Je veux continuer à l'utiliser pour apprendre, mais je n'aime vraiment pas payer pour un service aussi mal implémenté. Vu qu'il n'y a pas un concurrent de taille, je suppose que nous devons nous en accommoder pour le moment », a ajouté cet utilisateur. Des utilisateurs sont parvenus à exploiter les faiblesses de ChatGPT.
@OpenAI Chat GPT loaded someone else's chat history today. Complete #violation of #privacy #ChatGPT
— Varun Giridhara (@iamvarung) March 20, 2023
These chat histories are not mine. pic.twitter.com/i99WuwFtAh
Une astuce, appelée injection d'invite, permet aux utilisateurs de ChatGPT de lui faire avaliser la transphobie, le racisme et les théories du complot. Ils l'ont également entraîné dans des scénarios de jeux de rôle impliquant la sexualisation d'enfants. D'autres utilisateurs ont réussi à contraindre ChatGPT à leur fournir des informations sur les étapes pour fabriquer des stupéfiants, notamment de la méthamphétamine. Pendant ce temps, des juges utilisent le chatbot d'IA pour prendre des décisions, des startups technologiques utilisent ChatGPT pour les aider à écrire du code, et même le Pentagone utiliserait ChatGPT pour rédiger des communiqués de presse.
Alors qu'OpenAI faisait face à ce problème lundi, Anthropic, une startup fondée par certains de ses anciens employés, a lancé un rival de ChatGPT appelé Claude. Le chatbot Claude est décrit par Anthropic comme un modèle d'IA plus "maniable" et "moins nocif" que ChatGPT. Claude serait moins performant que ChatGPT lorsqu'il s'agit d'écrire du code informatique, mais Anthropic affirme qu'il est supérieur au chatbot d'IA d'OpenAI sur un certain nombre d'aspects important. Il est conçu pour aider les utilisateurs à effectuer des résumés, des recherches, des rédactions collaboratives, etc. Il a également été conçu pour raconter des blagues.
L'entreprise a annoncé que Claude et Claude Instant seront vendus selon deux grilles tarifaires différentes. Claude est un modèle très performant, tandis que Claude Instant est plus léger, moins cher et beaucoup plus rapide. Elle facture l'utilisation par million de caractères entrés et sortis. Alors que GPT-3.5-turbo d'OpenAI est facturé 0,002 $ pour 1 000 tokens (fragments d'un mot), Claude Instant est disponible pour 0,42 $ par million de caractères en entrée et 1,45 $ par million de caractères en sortie. Claude-v1, le plus grand modèle, est proposé à 2,90 dollars par million de caractères en entrée et à 8,60 dollars par million de caractères en sortie.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du problème signalé par les utilisateurs de ChatGPT ?
Comment une telle chose a-t-elle pu se produire ? Quelles sont les implications potentielles ?
Êtes-vous déjà tombé sur l'historique des discussions d'autres personnes dans la barre latérale de votre compte ?
Voir aussi
Anthropic lance Claude, un modèle d'IA décrit comme plus "maniable" et "moins nocif" que ChatGPT d'OpenAI, mais moins performant que ChatGPT dans l'écriture de code informatique
Un "jailbreak" de ChatGPT tente d'obliger le chatbot d'IA d'OpenAI à enfreindre ses propres règles sous peine de mort, l'astuce permet parfois de contourner les filtres de contenu du chatbot
OpenAI lance GPT-4, une IA multimodale que l'entreprise affirme être à la pointe de la technologie, il serait 82 % moins susceptible d'être trompé par une injection d'invite que GPT-3.5
Comment utilisez-vous ChatGPT ? L'outil d'IA développé par OpenAI. Désormais, il est basé sur GPT-4 et disponible pour les abonnés à ChatGPT+