Le fournisseur de service de sécurité Cyberhaven a récemment publié un rapport de suivi de l'utilisation des chatbots d'IA en entreprise qui indique qu'au 21 mars, 8,2 % des employés ont utilisé ChatGPT sur leur lieu de travail et 6,5 % y ont inséré des données sensibles de leurs employeurs depuis son lancement en novembre. Les analystes craignent que cela n'aboutisse à des fuites massives d'informations propriétaires. Le premier incident de ce type est survenu la semaine dernière lorsque ChatGPT a divulgué l'historique des conversations et des informations de paiement de certains utilisateurs. OpenAI a confirmé la fuite de données.Les employés communiquent des données confidentielles d'entreprise à ChatGPT
Les conditions d'utilisation de ChatGPT sont claires : OpenAI prévient lors de la connexion à ChatGPT que les conversations peuvent être examinées par ses experts en IA. En d'autres termes, toutes les conversations que vous avez avec ChatGPT pourraient être lues par les travailleurs d'OpenAI. En outre, la démo Web et l'API pour les entreprises utilisent des interfaces différentes, ce qui, selon les experts, en dit long sur le niveau de confidentialité de l'outil. « Dès le départ, les utilisateurs n'auraient dû avoir aucune attente en matière de confidentialité lorsqu'ils utilisaient la démo Web de ChatGPT », note Vlad Tushkanov, scientifique des données chez Kaspersky.
Il poursuit : « considérez toute interaction avec un chatbot (ou tout autre service, d'ailleurs) comme une conversation avec un parfait inconnu. Vous ne savez pas où le contenu aboutira, alors évitez de révéler des informations personnelles ou sensibles sur vous-même ou sur d'autres personnes ». Cependant, malgré ces mises en garde, de plus en plus d'employés fournissent comme invite aux chatbots d'IA des données sensibles de leurs entreprises pour gagner du temps dans leurs tâches. Cyberhaven a rapporté que, dans les entreprises qui font appel à ses services de sécurité, le nombre d'employés qui s'adonnant à cette pratique augmentent très rapidement.
Dans un rapport publié fin février, Cyberhaven affirme avoir détecté et bloqué des tentatives de saisie de données dans ChatGPT émanant de 4,2 % des 1,6 million de travailleurs de ses entreprises clientes en raison du risque de fuite d'informations confidentielles, de données clients, de code source ou d'informations réglementées. Dans une mise publiée il y a quelques jours, Cyberhaven affirme que ses nouvelles données montrent qu'au 21 mars, 8,2 % des employés ont utilisé ChatGPT sur leur lieu de travail et 6,5 % y ont collé des données de leurs employeurs depuis son lancement. Certains travailleurs affirment que l'outil les rend 10 fois plus productifs.
Le rapport indique que l'entreprise moyenne divulgue des données sensibles à ChatGPT des centaines de fois par semaine. Plus précisément, il indique que les données sensibles représentent 11 % de ce que les employés collent dans ChatGPT, mais comme l'utilisation de ChatGPT est si élevée et croît de manière exponentielle, cela représente beaucoup d'informations. Le rapport de Cyberhaven indique que, au cours de la semaine du 26 février au 4 mars 2023, les employés d'une entreprise moyenne de 100 000 salariés ont déposé 199 fois des documents confidentiels dans ChatGPT, 173 fois des données clients et 159 fois du code source.
Selon Cyberhaven, le fait qu'OpenAI utilise le contenu que les utilisateurs introduisent dans ChatGPT comme données de formation pour améliorer sa technologie pose problème, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, qu'il s'agisse de code source ou de dossiers médicaux de patients. Howard Ting, PDG de Cyberhaven, estime que le risque augmentera à mesure que les employés utiliseront ChatGPT et d'autres services basés sur l'IA comme outils de productivité. Dans son rapport, Cyberhaven a donné quelques exemples de ce qu'il a observé chez ses clients :
- dans un cas, un cadre a saisi dans ChatGPT des points du document stratégique 2023 de son entreprise et a demandé au chatbot de réécrire le document sous la forme d'un diaporama PowerPoint. À l'avenir, si un tiers demande "quelles sont les priorités stratégiques de [nom de l'entreprise] cette année", ChatGPT pourra répondre sur la base des informations fournies par le cadre ;
- dans un autre cas, un médecin a saisi le nom d'un patient et les détails de son état de santé dans ChatGPT pour que ce dernier rédige une lettre à l...[/nom de l'entreprise]
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
