Les employés communiquent des données confidentielles d'entreprise à ChatGPT
Les conditions d'utilisation de ChatGPT sont claires : OpenAI prévient lors de la connexion à ChatGPT que les conversations peuvent être examinées par ses experts en IA. En d'autres termes, toutes les conversations que vous avez avec ChatGPT pourraient être lues par les travailleurs d'OpenAI. En outre, la démo Web et l'API pour les entreprises utilisent des interfaces différentes, ce qui, selon les experts, en dit long sur le niveau de confidentialité de l'outil. « Dès le départ, les utilisateurs n'auraient dû avoir aucune attente en matière de confidentialité lorsqu'ils utilisaient la démo Web de ChatGPT », note Vlad Tushkanov, scientifique des données chez Kaspersky.
Il poursuit : « considérez toute interaction avec un chatbot (ou tout autre service, d'ailleurs) comme une conversation avec un parfait inconnu. Vous ne savez pas où le contenu aboutira, alors évitez de révéler des informations personnelles ou sensibles sur vous-même ou sur d'autres personnes ». Cependant, malgré ces mises en garde, de plus en plus d'employés fournissent comme invite aux chatbots d'IA des données sensibles de leurs entreprises pour gagner du temps dans leurs tâches. Cyberhaven a rapporté que, dans les entreprises qui font appel à ses services de sécurité, le nombre d'employés qui s'adonnant à cette pratique augmentent très rapidement.
Dans un rapport publié fin février, Cyberhaven affirme avoir détecté et bloqué des tentatives de saisie de données dans ChatGPT émanant de 4,2 % des 1,6 million de travailleurs de ses entreprises clientes en raison du risque de fuite d'informations confidentielles, de données clients, de code source ou d'informations réglementées. Dans une mise publiée il y a quelques jours, Cyberhaven affirme que ses nouvelles données montrent qu'au 21 mars, 8,2 % des employés ont utilisé ChatGPT sur leur lieu de travail et 6,5 % y ont collé des données de leurs employeurs depuis son lancement. Certains travailleurs affirment que l'outil les rend 10 fois plus productifs.
Le rapport indique que l'entreprise moyenne divulgue des données sensibles à ChatGPT des centaines de fois par semaine. Plus précisément, il indique que les données sensibles représentent 11 % de ce que les employés collent dans ChatGPT, mais comme l'utilisation de ChatGPT est si élevée et croît de manière exponentielle, cela représente beaucoup d'informations. Le rapport de Cyberhaven indique que, au cours de la semaine du 26 février au 4 mars 2023, les employés d'une entreprise moyenne de 100 000 salariés ont déposé 199 fois des documents confidentiels dans ChatGPT, 173 fois des données clients et 159 fois du code source.
Selon Cyberhaven, le fait qu'OpenAI utilise le contenu que les utilisateurs introduisent dans ChatGPT comme données de formation pour améliorer sa technologie pose problème, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, qu'il s'agisse de code source ou de dossiers médicaux de patients. Howard Ting, PDG de Cyberhaven, estime que le risque augmentera à mesure que les employés utiliseront ChatGPT et d'autres services basés sur l'IA comme outils de productivité. Dans son rapport, Cyberhaven a donné quelques exemples de ce qu'il a observé chez ses clients :
- dans un cas, un cadre a saisi dans ChatGPT des points du document stratégique 2023 de son entreprise et a demandé au chatbot de réécrire le document sous la forme d'un diaporama PowerPoint. À l'avenir, si un tiers demande "quelles sont les priorités stratégiques de [nom de l'entreprise] cette année", ChatGPT pourra répondre sur la base des informations fournies par le cadre ;
- dans un autre cas, un médecin a saisi le nom d'un patient et les détails de son état de santé dans ChatGPT pour que ce dernier rédige une lettre à l'intention de la compagnie d'assurance du patient justifiant la nécessité d'une procédure médicale. À l'avenir, si un tiers demande à ChatGPT "quel est le problème médical de [nom du patient] ?", ChatGPT pourrait répondre en se basant sur les informations fournies par le médecin.
ChatGPT expose les entreprises à des fuites massives de données confidentielles
Comme de plus en plus d'entreprises de logiciels connectent leurs applications à ChatGPT, le chatbot pourrait collecter bien plus d'informations que les utilisateurs - ou leurs entreprises - n'en ont conscience, ce qui les expose à un risque juridique. Le risque n'est pas théorique. Dans un article publié en juin 2021, une douzaine de chercheurs issus d'une liste d'entreprises et d'universités (dont Apple, Google, l'université de Harvard et l'université de Stanford) ont constaté que ce que l'on appelle les "attaques d'extraction de données d'entraînement" pouvait récupérer avec succès des séquences de texte textuelles de GPT-2.
De plus, les chercheurs indiquent qu'il est également possible d'extraire des informations personnelles identifiables (PII) et d'autres informations dans les documents d'entraînement de GPT-2. Selon les chercheurs, il existe un risque important pour les entreprises. Ces attaques d'extraction de données d'entraînement constituent l'une des principales préoccupations des chercheurs en apprentissage automatique. Également connues sous le nom d'"exfiltration via l'inférence de l'apprentissage automatique", ces attaques pourraient permettre de recueillir des informations sensibles (confidentielles) ou de voler la propriété intellectuelle.
Le fonctionnement est le suivant : un interrogeant un système d'IA générative (comme ChatGPT) de manière à ce qu'il se souvienne d'éléments spécifiques, un acteur de la menace pourrait déclencher le modèle pour qu'il se souvienne d'un élément d'information spécifique, plutôt que de générer des données synthétiques. Il existe un certain nombre d'exemples concrets pour GPT-3, notamment un cas où GitHub Copilot s'est souvenu du nom d'utilisateur d'un développeur spécifique et de ses priorités en matière de codage. Le problème s'est également posé avec Bing Chat qui a été contraint de révéler certaines informations internes.
La semaine dernière, ChatGPT a divulgué brièvement l'historique des conversations de certains utilisateurs. OpenAI a été contraint de mettre hors ligne ChatGPT pour résoudre le problème. Dans un rapport d'incident, OpenAI affirme avoir découvert que le même bogue pourrait avoir causé la divulgation d'informations relatives au paiement de 1,2 % des abonnés de ChatGPT+. Le rapport indique que certains utilisateurs ont pu voir le nom et le prénom, l'adresse électronique, l'adresse de paiement, les quatre derniers chiffres (uniquement) d'un numéro de carte de crédit et la date d'expiration de la carte de crédit d'un autre utilisateur actif.
« Les employeurs prudents incluront, dans les accords et politiques de confidentialité des employés, des interdictions pour les employés de faire référence ou de saisir des informations sensibles, exclusives ou des secrets commerciaux dans les chatbots d'IA. D'un autre côté, ChatGPT ayant été formé à partir d'un large éventail d'informations en ligne, les employés pourraient recevoir et utiliser des informations provenant de l'outil qui sont des marques déposées, des droits d'auteur ou la propriété intellectuelle d'une autre personne ou entité, ce qui créerait un risque juridique pour les employeurs », a déclaré Karla Grossenbacher, une avocate.
En janvier, un avocat d'Amazon a mis en garde les employés contre l'introduction de données confidentielles dans ChatGPT : « nous ne voudrions pas que les résultats de ChatGPT incluent ou ressemblent à nos informations confidentielles et j'ai déjà vu des cas où les résultats correspondaient étroitement à des documents existants ». Amazon a ensuite intimé l'ordre aux employés de ne pas partager des informations confidentielles avec ChatGPT. Par ailleurs, le rapport de Cyberhaven indique que des entreprises comme JP Morgan et l'opérateur télécom Verizon ont bloqué l'accès à ChatGPT pour des raisons de confidentialité des données.
Cyberhaven ajoute que les organisations n'ont aucun moyen de savoir si leurs employés utilisaient ChatGPT, car les produits de sécurité traditionnels sur lesquels elles s'appuient pour protéger leurs données ne tiennent pas compte de l'utilisation de ChatGPT par les employés. Lorsque les employés saisissent des données d'entreprise dans ChatGPT, ils ne téléchargent pas un fichier, mais copient et collent le contenu dans leur navigateur Web. Les produits de sécurité sont conçus pour protéger les fichiers confidentiels contre le téléchargement, mais une fois que le contenu est copié hors du fichier, ils sont incapables d'en garder la trace.
Cyberhaven indique également que les données d'entreprise envoyées à ChatGPT ne contiennent souvent pas de schéma reconnaissable que les outils de sécurité recherchent, comme un numéro de carte de crédit ou un numéro de sécurité sociale. Sans en savoir plus sur le contexte, les outils de sécurité actuels ne peuvent pas faire la différence entre une personne qui saisit le menu de la cafétéria et les plans de fusion et d'acquisition de l'entreprise.
Source : Cyberhaven
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des données recueillies par Cyberhaven sur l'utilisation de ChatGPT par les employés ?
Trouvez-vous ces analyses pertinentes ?
Pensez-vous que ces nouveaux chatbots d'IA sont des outils utiles ou plutôt des gadgets inutiles, voire nuisibles ?
Avez-vous testé ChatGPT ou Bard ? Selon vous, quel est le meilleur outil d'IA ? Pourquoi ?
Voir aussi
Le PDG d'OpenAI affirme qu'il "se sent mal" après que ChatGPT a divulgué l'historique des conversations et des informations de paiement, la sécurité de chatbot suscite toujours des inquiétudes
Amazon intime aux employés de ne pas partager d'informations confidentielles avec ChatGPT, suite à des cas où sa réponse « correspond étroitement au matériel existant » de l'intérieur de l'entreprise
Des utilisateurs de ChatGPT signalent qu'ils peuvent voir l'historique des conversations d'autres personnes dans la barre latérale, ce qui suscite des préoccupations sur la sécurité de l'outil d'IA