IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les ingénieurs logiciels de Samsung ont divulgué des données sensibles en collant du code propriétaire dans ChatGPT
Alors qu'ils recherchaient un correctif

Le , par Stéphane le calme

10PARTAGES

5  0 
Samsung a découvert une fuite de données liée à l’utilisation de ChatGPT. D'après le média coréen Economist, des ingénieurs de Samsung Semiconductor ont commencé à utiliser ChatGPT pour corriger des erreurs dans leur code source, divulguant ainsi des informations confidentielles. Il s'agit notamment des comptes rendus de réunions et des données sur les performances et la productivité des installations de production.

L'agent conversationnel ChatGPT continue de s’améliorer à travers des échanges qu’il entretient avec les utilisateurs. En clair, il affine ses connaissances grâce aux conversations et aux requêtes qui lui sont faites. Aussi, tout ce qui lui est transmis est transformé en donnée d’apprentissage, ce qui permet d’améliorer continuellement les performances de l’intelligence artificielle. L'implication est celle-ci : ce qui est partagé avec ChatGPT est partagé potentiellement avec d’autres utilisateurs.

C'est ce qu'ont découvert à leurs dépens quelques employés de Samsung.

D'après le quotidien sud-coréen Economist, le groupe avait autorisé des ingénieurs de la branche Samsung Semiconductor, en charge de la conception de composants électroniques comme la mémoire vive, le stockage, les processeurs ou les capteurs photo, à utiliser ChatGPT pour corriger des problèmes de code source.

Sur une période de 20 jours, Samsung a documenté trois cas où l’utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement.

Un employé a copié le code source bogué d'une base de données de semi-conducteurs dans le chatbot et lui a demandé d'identifier un correctif. Un autre employé a fait de même pour un autre équipement, entrant des modèles de test confidentiels conçus pour identifier les puces défectueuses et demandant « l'optimisation du code » à ChatGPT. Un troisième employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document, puis a demandé au modèle d'IA de résumer les notes de réunion en préparation d'une présentation.

C'est alors que les dirigeants de Samsung sont intervenus, limitant l'invite de chaque employé à ChatGPT à 1 024 octets. La société a également lancé une enquête sur les trois employés en question et prévoit désormais de créer son propre chatbot à usage interne pour éviter des incidents similaires. Il faut dire qu'à peine trois semaines plus tôt, Samsung avait levé l'interdiction imposée aux employés d'utiliser ChatGPT en raison de préoccupations concernant ce problème. Après les récents incidents, il envisage de rétablir l'interdiction, ainsi que des mesures disciplinaires pour les employés, a déclaré The Economist Korea.

« Si un accident similaire se produit même après que des mesures de protection des informations d'urgence ont été prises, l'accès à ChatGPT peut être bloqué sur le réseau de l'entreprise », lit-on dans une note interne. « Dès que le contenu est saisi dans ChatGPT, les données sont transmises et stockées dans un serveur, ce qui empêche l'entreprise de les récupérer ».

D'ailleurs OpenAI, l'entreprise derrière ChatGPT, recommande dans une FAQ de ne pas partager les données sensibles : « Pouvez-vous supprimer des invites spécifiques ? Non, nous ne sommes pas en mesure de supprimer des invites spécifiques de votre historique. Veuillez ne pas partager d'informations sensibles dans vos conversations ».

Le cas de Samsung est loin d'être isolé

Une étude menée par la société de cybersécurité Cyberhaven, publiée en février (puis mis à jour en mars), affirme que 6,5 % des employés de différentes entreprises ont déjà transmis à ChatGPT des informations internes d’entreprise. Ci-dessous, un extrait de leur billet.

Depuis que ChatGPT a été lancé il y a trois mois, il a pris le monde d'assaut. Les gens l'utilisent pour créer des poèmes, des essais pour l'école et des paroles de chansons. Il fait également des incursions dans le milieu de travail. Selon les données du produit de Cyberhaven, au 21 mars, 8,2 % des employés avaient utilisé ChatGPT sur leur lieu de travail et 6,5 % y avaient collé les données de l'entreprise depuis son lancement. Certains travailleurs du savoir disent que l'utilisation de l'outil les rend 10 fois plus productifs. Mais des entreprises comme JP Morgan et Verizon bloquent l'accès à ChatGPT en raison de préoccupations concernant les données confidentielles.

Le problème de mettre les données de l'entreprise dans ChatGPT

OpenAI utilise le contenu que les gens mettent dans ChatGPT comme données de formation pour améliorer sa technologie. Ceci est problématique, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, du code source aux dossiers médicaux des patients. Récemment, un avocat d'Amazon a averti les employés de ne pas mettre de données confidentielles dans ChatGPT, notant que « nous ne voudrions pas que la sortie [ChatGPT] inclue ou ressemble à nos informations confidentielles (et j'ai déjà vu des cas où sa sortie correspond étroitement au matériel existant) ».

Prenons quelques exemples :
  • un médecin saisit le nom d'un patient et les détails de son état dans ChatGPT pour lui faire rédiger une lettre à la compagnie d'assurance du patient justifiant la nécessité d'une intervention médicale. À l'avenir, si un tiers demande à ChatGPT « Quel problème médical [nom du patient] a-t-il ? » ChatGPT pourrait répondre en fonction de ce que le médecin a fourni ;
  • un cadre saisit des puces du document de stratégie 2023 de l'entreprise dans ChatGPT et lui demande de le réécrire sous la forme d'un jeu de diapositives PowerPoint. À l'avenir, si un tiers demande « quelles sont les priorités stratégiques de [nom de l'entreprise] cette année », ChatGPT pourrait répondre sur la base des informations fournies par le dirigeant.

Le 21 mars 2023, OpenAI a fermé ChatGPT en raison d'un bogue qui étiquetait mal les chats dans l'historique de l'utilisateur avec les titres des chats d'autres utilisateurs. Dans la mesure où ces titres contenaient des informations sensibles ou confidentielles, ils auraient pu être exposés à d'autres utilisateurs de ChatGPT.

Identifier quelles données vont à ChatGPT n'est pas facile

Les produits de sécurité traditionnels sur lesquels les entreprises s'appuient pour protéger leurs données sont aveugles à l'utilisation de ChatGPT par les employés. Avant de bloquer ChatGPT, JP Morgan n'aurait apparemment pas pu déterminer « combien d'employés utilisaient le chatbot ni pour quelles fonctions ils l'utilisaient ». Il est difficile pour les produits de sécurité de surveiller l'utilisation de ChatGPT et de protéger les données qui y sont envoyées pour deux raisons :
  • copier/coller à partir d'un fichier ou d'une application — lorsque les employés saisissent les données de l'entreprise dans ChatGPT, ils ne téléchargent pas de fichier, mais copient et collent le contenu dans leur navigateur Web. De nombreux produits de sécurité sont conçus pour protéger les fichiers (qui sont étiquetés confidentiels) contre le téléchargement, mais une fois que le contenu est copié hors du fichier, ils ne peuvent pas en garder une trace ;
  • les données confidentielles ne contiennent aucun modèle reconnaissable - Les données de l'entreprise transmises à ChatGPT ne contiennent souvent pas de modèle reconnaissable recherché par les outils de sécurité, comme un numéro de carte de crédit ou un numéro de sécurité sociale. Sans en savoir plus sur son contexte, les outils de sécurité d'aujourd'hui ne peuvent pas faire la différence entre quelqu'un qui saisit le menu de la cafétéria et les plans de fusion et acquisition de l'entreprise.

Bien que certaines entreprises bloquent ChatGPT, son utilisation sur le lieu de travail se développe rapidement

Cyberhaven Labs a analysé l'utilisation de ChatGPT pour 1,6 million de travailleurs dans des entreprises de tous les secteurs qui utilisent le produit Cyberhaven. Depuis le lancement public de ChatGPT, 8,2 % des travailleurs du savoir ont essayé de l'utiliser au moins une fois sur leur lieu de travail. De plus, 3,1 % des employés ont mis des données confidentielles de l'entreprise dans ChatGPT. Malgré un nombre croissant d'entreprises bloquant carrément l'accès à ChatGPT, l'utilisation continue de croître de façon exponentielle. Le 14 mars, notre produit a détecté un nombre record de 5 267 tentatives de collage de données d'entreprise dans ChatGPT pour 100 000 employés, définies comme des événements de « sortie de données » dans le tableau ci-dessous.


Cyberhaven suit également les entrées de données telles que les employés copiant des données hors de ChatGPT et les collant ailleurs comme un Google Doc, un e-mail d'entreprise ou leur éditeur de code source. Les travailleurs copient plus les données de ChatGPT qu'ils ne collent les données de l'entreprise dans ChatGPT dans un rapport de près de 2 pour 1. Cela a du sens, car en plus de demander à ChatGPT de réécrire le contenu existant, vous pouvez simplement taper une invite telle que « rédige un article de blog sur la problématique de ChatGPT du point de vue de la sécurité des données » et il l'écrira à partir de zéro.

L'entreprise moyenne divulgue des données sensibles à ChatGPT des centaines de fois par semaine

Les données sensibles représentent 11 % de ce que les employés collent dans ChatGPT, mais comme l'utilisation de ChatGPT est si élevée et croît de manière exponentielle, cela s'avère être beaucoup d'informations. Au cours de la semaine du 26 février au 4 mars, les employés d'une entreprise moyenne de 100 000 employés ont mis 199 fois des documents confidentiels dans ChatGPT, 173 fois des données client et 159 fois du code source.


Quelques pommes pourries ?

Dans une entreprise moyenne, seulement 0,9 % des employés sont responsables de 80 % des événements de sortie, c'est-à-dire des incidents de collage de données d'entreprise sur le site. Le nombre est encore relativement faible, mais n'importe lequel des événements de sortie que nous avons trouvés pourrait être responsable de l'exposition d'une donnée critique de l'entreprise. Il existe de nombreuses utilisations légitimes de ChatGPT sur le lieu de travail, et les entreprises qui cherchent à en tirer parti pour améliorer leur productivité sans risquer leurs données sensibles sont sur le point d'en bénéficier.

Sources : OpenAI, The Economist, Cyberhaven

Et vous ?

Êtes-vous surpris de voir du code confidentiel d'une entreprise, notamment Samsung, passer dans ChatGPT ?
Que pensez-vous de la politique d'OpenAI en matière d'invite lorsque la société demande de ne pas partager d'informations sensibles dans les conversations ?
Que pensez-vous de l'idée de Samsung de développer un outil similaire en interne ?
Êtes-vous surpris par les statistiques liées au partage des données sensibles de l'entreprise indiquées par Cyberhaven ?
Vous est-il déjà arrivé d'utiliser ChatGPT avec des données d'entreprise ? À quelle occasion ?
Comment peut-on, selon vous, s'assurer que les données sensibles ne filtrent pas ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 12/04/2023 à 7:47
OpenAI ne va pas prendre toute la m*** saisis par les utilisateurs comme source de vérité pour ChatGPT demain, sans aucun filtre, anonymisation, confrontation d'informations... Les exemples indiqués dans cet article sont imaginaires. Ce n'est pas ayant ce genre de raisonnement que l'on construit le meilleur chatbot de la planète.
0  1