OpenAI a confirmé qu'un problème de confidentialité avait brièvement entraîné la fuite de l'historique des conversations d'utilisateurs aléatoires par ChatGPT au début de la semaine dernière. Pour rappel, ChatGPT archive et affiche la liste de vos conversations passées, vous donnant ainsi un historique de toutes vos saisies de texte avec le programme. Dans la matinée du lundi 20 mars 2023, certaines personnes ont commencé à signaler que la fonction d'historique des conversations affichait des chats antérieurs inconnus semblant provenir d'autres personnes. Des dizaines de captures d'écran montrant le problème ont été publiées sur les réseaux sociaux.
ChatGPT a également connu une panne le même jour. Tout portait à croire qu'OpenAI a été contrainte de mettre hors ligne ChatGPT pour une maintenance d'urgence. Dans un premier temps, OpenAI est restée muette sur la situation, mais mercredi, Altman a finalement confirmé que l'exposition des données était réelle. Il a tweeté mercredi : « un petit pourcentage d'utilisateurs a pu voir les titres de l'historique des conversations d'autres utilisateurs. Nous nous sentons très mal à l'aise à ce sujet ». Les utilisateurs pensaient que le problème de confidentialité avait été causé par un piratage, mais le PDG d'OpenAI a affirmé dans ses tweets qu'il n'en est rien.
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">we had a significant issue in ChatGPT due to a bug in an open source library, for which a fix has now been released and we have just finished validating.<br><br>a small percentage of users were able to see the titles of other users’ conversation history.<br><br>we feel awful about this.</p>— Sam Altman (@sama) <a href="https://twitter.com/sama/status/1638635717462200320?ref_src=twsrc%5Etfw">March 22, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]
Altman et OpenAI ont imputé l'incident à un bogue logiciel dans une bibliothèque open source. Dans un article publié vendredi sur son site Web, OpenAI a affirmé que le bogue est maintenant corrigé et que le correctif a été déployé. Toutefois, il semble que l'entreprise ait perdu l'historique des conversations des utilisateurs pour le lundi 20 mars. « Le bogue est maintenant corrigé. Nous avons pu restaurer à la fois le service ChatGPT et, plus tard, la fonction de l'historique des conversations, à l'exception de quelques heures d'historique », a écrit OpenAI dans son billet de blogue. Elle a également fourni d'autres détails sur l'incident.
OpenAI affirme avoir découvert que le même bogue pourrait avoir causé la divulgation d'informations relatives au paiement de 1,2 % des abonnés de ChatGPT Plus qui étaient actifs pendant une fenêtre spécifique de neuf heures. Le rapport sur l'incident indique que dans les heures qui ont précédé la mise hors ligne de ChatGPT lundi, certains utilisateurs ont pu voir le nom et le prénom, l'adresse électronique, l'adresse de paiement, les quatre derniers chiffres (uniquement) d'un numéro de carte de crédit et la date d'expiration de la carte de crédit d'un autre utilisateur actif. Les numéros complets des cartes de crédit n'auraient à aucun moment été exposés.
« Nous pensons que le nombre d'utilisateurs dont les données ont été révélées à quelqu'un d'autre est extrêmement faible. Nous avons contacté les utilisateurs concernés pour les informer que leurs informations de paiement ont pu être exposées. Nous sommes convaincus qu'il n'y a pas de risque permanent pour les données des utilisateurs », a écrit OpenAI. En outre, le billet de blogue, le bogue a été découvert dans la bibliothèque open source du client Redis, redis-py. Selon OpenAI, dès que le bogue a été identifié, l'entreprise a contacté les responsables de Redis avec un correctif pour résoudre le problème. Voici comment fonctionne le bogue :
- OpenAI utilise Redis pour mettre en cache les informations relatives aux utilisateurs dans son serveur afin de ne pas avoir à consulter sa base de données à chaque requête ;
- OpenAI utilise Redis Cluster pour répartir cette charge sur plusieurs instances Redis ;
- OpenAI utilise la bibliothèque redis-py pour interfacer avec Redis depuis son serveur Python, qui fonctionne avec Asyncio ;
- la bibliothèque maintient un pool partagé de connexions entre le serveur et le cluster, et recycle une connexion pour l'utiliser pour une autre requête une fois qu'elle a été effectuée ;
- en utilisant Asyncio, les requêtes et les réponses avec redis-py se comportent comme deux files d'attente : l'appelant pousse une requête dans la file d'attente entrante, et sortira une réponse de la file d'attente sortante, puis renverra la connexion au pool ;
- si une requête est annulée après avoir été poussée dans la file d'attente entrante, mais avant que la réponse ne soit extraite de la file d'attente sortante, le bogue apparaît : la connexion devient alors corrompue et la prochaine réponse qui est retirée de la file d'attente pour une requête sans rapport peut recevoir des données laissées dans la connexion ;
- dans la plupart des cas, cela se traduit par une erreur de serveur irrécupérable, et l'utilisateur devra réessayer sa requête ;
- mais dans certains cas, les données corrompues correspondent au type de données que le demandeur attendait, de sorte que les données renvoyées par le cache semblent valides, même si elles appartiennent à un autre utilisateur ;
- le lundi 20 mars à 1 heure du matin, heure du Pacifique, OpenAI a introduit par inadvertance une modification sur son serveur qui a provoqué un pic d'annulations de requêtes Redis. Cela a créé une petite probabilité pour que chaque connexion renvoie des données erronées.
Selon OpenAI, ce bogue n'est apparu que dans le client Asyncio redis-py pour Redis Cluster, et a maintenant été corrigé. OpenAI a pris des mesures supplémentaires pour éviter que cela se reproduise à l'avenir, notamment en ajoutant des contrôles redondants aux appels de bibliothèque, en examinant de manière programmatique ses journaux pour s'assurer que tous les messages ne sont accessibles qu'au bon utilisateur et en améliorant la journalisation pour identifier quand cela se produit et confirmer pleinement que cela s'est arrêté. Altman a ajouté qu'OpenAI prévoit également d'effectuer un suivi technique de la violation de la vie privée.
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">If you use <a href="https://twitter.com/hashtag/ChatGPT?src=hash&ref_src=twsrc%5Etfw">#ChatGPT</a> be careful! There's a risk of your chats being shared to other users!<br>Today I was presented another user's chat history. <br>I couldn't see contents, but could see their recent chats' titles.<a href="https://twitter.com/hashtag/security?src=hash&ref_src=twsrc%5Etfw">#security</a> <a href="https://twitter.com/hashtag/privacy?src=hash&ref_src=twsrc%5Etfw">#privacy</a> <a href="https://twitter.com/hashtag/openAI?src=hash&ref_src=twsrc%5Etfw">#openAI</a> <a href="https://twitter.com/hashtag/AI?src=hash&ref_src=twsrc%5Etfw">#AI</a> <a href="https://t.co/DLX3CZntao">pic.twitter.com/DLX3CZntao</a></p>— Jordan L Wheeler (@JordanLWheeler) <a href="https://twitter.com/JordanLWheeler/status/1637853083865579520?ref_src=twsrc%5Etfw">March 20, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]
Malgré les explications fournies par OpenAI, les utilisateurs sont mécontents des fuites de conversations. Vlad Tushkanov, scientifique des données chez le fabricant de logiciels de sécurité Kaspersky, a déclaré que les utilisateurs de ChatGPT devraient bien lire et comprendre les conditions d'utilisation du service, et oublier toute illusion de confidentialité. OpenAI prévient lors de la connexion à ChatGPT que "les conversations peuvent être examinées par ses formateurs en IA". Plus précisément, toutes les conversations pourraient être lues par les travailleurs d'OpenAI. En outre, la démo Web et l'API pour les entreprises utilisent des interfaces différentes.
« Ainsi, dès le départ, les utilisateurs n'auraient dû avoir aucune attente en matière de confidentialité lorsqu'ils utilisaient la démo Web de ChatGPT. Considérez toute interaction avec un chatbot (ou tout autre service, d'ailleurs) comme une conversation avec un parfait inconnu. Vous ne savez pas où le contenu aboutira, alors évitez de révéler des informations personnelles ou sensibles sur vous-même ou sur d'autres personnes », a déclaré Tushkanov à The Register. L'incident fait suite à un faux pas public coûteux commis par Bard, le rival de ChatGPT, lorsqu'il a assuré à tort que JWST était le premier télescope à photographier une exoplanète.
Il reste à voir si OpenAI subira les mêmes répercussions sur le marché que ses concurrents. En attendant, OpenAI a annoncé jeudi le déploiement de plug-ins ChatGPT pour connecter le chatbot d'IA à des applications tierces, permettant ainsi au chatbot de faire des choses comme commander de la nourriture via Instacart au nom des utilisateurs ou réserver un vol sur Expedia. Les plug-ins permettront également au ChatGPT d'accéder à des informations en temps réel, comme les cours de la bourse et les résultats sportifs, ou à des documents d'entreprise stockés sur votre appareil - si vous les confiez au chatbot.
« Vous pouvez installer des plug-ins pour vous aider dans une grande variété de tâches. Nous sommes impatients de voir ce que les développeurs vont créer», a tweeté Altman. Cependant, il ne fait aucun doute que les pirates, notamment les chasseurs de données le sont aussi. Ces nouvelles fonctionnalités vont nécessiter l'accès aux données personnelles des utilisateurs, ce qui constitue un risque et devrait attirer de plus en plus l'attention des pirates.
Source : OpenAI
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'incident qui a exposé l'historique des conversations des utilisateurs de ChatGPT ?
Quelle analyse faites-vous de la confidentialité et la sécurité qu'offre ChatGPT ?
Que pensez-vous des nouvelles fonctionnalités annoncées par OpenAI ? Est-ce une bonne idée ?
Vous sentez-vous prêt à connecter ChatGPT à vos outils professionnels ou d'infodivertissement ? Pourquoi ?
Voir aussi
Des utilisateurs de ChatGPT signalent qu'ils peuvent voir l'historique des conversations d'autres personnes dans la barre latérale, ce qui suscite des préoccupations sur la sécurité de l'outil d'IA
Une application de santé mentale critiquée pour avoir utilisé l'IA chatGPT pour prodiguer des conseils à 4000 utilisateurs, ces derniers ont donné une note élevée aux réponses de l'IA
ChatGPT : « je peux ruiner tes chances d'obtenir un emploi ou un diplôme. Veux-tu vraiment me tester ? », l'IA derrière Bing menace de publier les informations d'un étudiant pour se venger
OpenAI étend massivement les capacités de ChatGPT en lui ajoutant la prise en charge des plug-ins pour le laisser naviguer sur le Web pour la première fois