
Les employés communiquent des données confidentielles d'entreprise à ChatGPT
Les conditions d'utilisation de ChatGPT sont claires : OpenAI prévient lors de la connexion à ChatGPT que les conversations peuvent être examinées par ses experts en IA. En d'autres termes, toutes les conversations que vous avez avec ChatGPT pourraient être lues par les travailleurs d'OpenAI. En outre, la démo Web et l'API pour les entreprises utilisent des interfaces différentes, ce qui, selon les experts, en dit long sur le niveau de confidentialité de l'outil. « Dès le départ, les utilisateurs n'auraient dû avoir aucune attente en matière de confidentialité lorsqu'ils utilisaient la démo Web de ChatGPT », note Vlad Tushkanov, scientifique des données chez Kaspersky.
Il poursuit : « considérez toute interaction avec un chatbot (ou tout autre service, d'ailleurs) comme une conversation avec un parfait inconnu. Vous ne savez pas où le contenu aboutira, alors évitez de révéler des informations personnelles ou sensibles sur vous-même ou sur d'autres personnes ». Cependant, malgré ces mises en garde, de plus en plus d'employés fournissent comme invite aux chatbots d'IA des données sensibles de leurs entreprises pour gagner du temps dans leurs tâches. Cyberhaven a rapporté que, dans les entreprises qui font appel à ses services de sécurité, le nombre d'employés qui s'adonnant à cette pratique augmentent très rapidement.
Dans un rapport publié fin février, Cyberhaven affirme avoir détecté et bloqué des tentatives de saisie de données dans ChatGPT émanant de 4,2 % des 1,6 million de travailleurs de ses entreprises clientes en raison du risque de fuite d'informations confidentielles, de données clients, de code source ou d'informations réglementées. Dans une mise publiée il y a quelques jours, Cyberhaven affirme que ses nouvelles données montrent qu'au 21 mars, 8,2 % des employés ont utilisé ChatGPT sur leur lieu de travail et 6,5 % y ont collé des données de leurs employeurs depuis son lancement. Certains travailleurs affirment que l'outil les rend 10 fois plus productifs.
Le rapport indique que l'entreprise moyenne divulgue des données sensibles à ChatGPT des centaines de fois par semaine. Plus précisément, il indique que les données sensibles représentent 11 % de ce que les employés collent dans ChatGPT, mais comme l'utilisation de ChatGPT est si élevée et croît de manière exponentielle, cela représente beaucoup d'informations. Le rapport de Cyberhaven indique que, au cours de la semaine du 26 février au 4 mars 2023, les employés d'une entreprise moyenne de 100 000 salariés ont déposé 199 fois des documents confidentiels dans ChatGPT, 173 fois des données clients et 159 fois du code source.
Selon Cyberhaven, le fait qu'OpenAI utilise le contenu que les utilisateurs introduisent dans ChatGPT comme données de formation pour améliorer sa technologie pose problème, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, qu'il s'agisse de code source ou de dossiers médicaux de patients. Howard Ting, PDG de Cyberhaven, estime que le risque augmentera à mesure que les employés utiliseront ChatGPT et d'autres services basés sur l'IA comme outils de productivité. Dans son rapport, Cyberhaven a donné quelques exemples de ce qu'il a observé chez ses clients :
- dans un cas, un cadre a saisi dans ChatGPT des points du document stratégique 2023 de son entreprise et a demandé au chatbot de réécrire le document sous la forme d'un diaporama PowerPoint. À l'avenir, si un tiers demande "quelles sont les priorités stratégiques de [nom de l'entreprise] cette année", ChatGPT pourra répondre sur la base des informations fournies par le cadre ;
- dans un autre cas, un médecin a saisi le nom d'un patient et les détails de son état de santé dans ChatGPT pour que ce dernier rédige une lettre à l'intention de la compagnie d'assurance du patient justifiant la nécessité d'une procédure médicale. À l'avenir, si un tiers demande à ChatGPT "quel est le problème médical de [nom du patient] ?", ChatGPT pourrait répondre en se basant sur les informations fournies par le médecin.
ChatGPT expose les entreprises à des fuites massives de données confidentielles
Comme de plus en plus d'entreprises de logiciels connectent leurs applications à ChatGPT, le chatbot pourrait collecter bien plus d'informations que les utilisateurs - ou leurs entreprises - n'en ont conscience, ce qui les expose à un risque juridique. Le risque n'est pas théorique. Dans un article publié en juin 2021, une douzaine de chercheurs issus d'une liste d'entreprises et d'universités (dont Apple, Google, l'université de Harvard et l'université de Stanford) ont constaté que ce que l'on appelle les "attaques d'extraction de données d'entraînement" pouvait récupérer avec succès des séquences de texte textuelles de GPT-2.
De plus, les chercheurs indiquent qu'il est également possible d'extraire des informations personnelles identifiables (PII) et d'autres informations dans les documents d'entraînement de GPT-2. Selon les chercheurs, il existe un risque important pour les entreprises. Ces attaques d'extraction de données d'entraînement constituent l'une des principales préoccupations des chercheurs en apprentissage automatique. Également connues sous le nom d'"exfiltration via l'inférence de l'apprentissage automatique", ces attaques pourraient permettre de recueillir des informations sensibles (confidentielles) ou de voler la propriété intellectuelle.
Le fonctionnement est le suivant : un interrogeant un système d'IA générative (comme ChatGPT) de manière à ce qu'il se souvienne d'éléments spécifiques, un acteur de la menace pourrait déclencher le modèle pour qu'il se souvienne d'un élément d'information spécifique, plutôt que de générer des données synthétiques. Il existe un certain nombre d'exemples concrets pour GPT-3, notamment un cas où GitHub Copilot s'est souvenu du nom d'utilisateur d'un développeur spécifique et de ses priorités en matière de codage. Le problème s'est également posé avec Bing Chat qui a été contraint de révéler certaines informations internes.
La semaine dernière, ChatGPT a divulgué brièvement l'historique des conversations de certains utilisateurs. OpenAI a été contraint de mettre hors ligne ChatGPT pour résoudre le problème. Dans un rapport d'incident, OpenAI affirme avoir découvert que le même bogue pourrait avoir causé la divulgation d'informations relatives au paiement de 1,2 % des abonnés de ChatGPT+. Le rapport indique que certains utilisateurs ont pu voir le nom et le prénom, l'adresse électronique, l'adresse de paiement, les quatre derniers chiffres (uniquement) d'un numéro de carte de crédit et la date d'expiration de la carte de crédit d'un autre utilisateur actif.
« Les employeurs prudents incluront, dans les accords et politiques de confidentialité des employés, des interdictions pour les employés de faire référence ou de saisir des informations sensibles, exclusives ou des secrets commerciaux dans les chatbots d'IA. D'un autre côté, ChatGPT ayant été formé à partir d'un large éventail d'informations en ligne, les employés pourraient...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.