Samsung a découvert une fuite de données liée à l’utilisation de ChatGPT. D'après le média coréen Economist, des ingénieurs de Samsung Semiconductor ont commencé à utiliser ChatGPT pour corriger des erreurs dans leur code source, divulguant ainsi des informations confidentielles. Il s'agit notamment des comptes rendus de réunions et des données sur les performances et la productivité des installations de production. L'agent conversationnel ChatGPT continue de s’améliorer à travers des échanges qu’il entretient avec les utilisateurs. En clair, il affine ses connaissances grâce aux conversations et aux requêtes qui lui sont faites. Aussi, tout ce qui lui est transmis est transformé en donnée d’apprentissage, ce qui permet d’améliorer continuellement les performances de l’intelligence artificielle. L'implication est celle-ci : ce qui est partagé avec ChatGPT est partagé potentiellement avec d’autres utilisateurs.
C'est ce qu'ont découvert à leurs dépens quelques employés de Samsung.
D'après le quotidien sud-coréen Economist, le groupe avait autorisé des ingénieurs de la branche Samsung Semiconductor, en charge de la conception de composants électroniques comme la mémoire vive, le stockage, les processeurs ou les capteurs photo, à utiliser ChatGPT pour corriger des problèmes de code source.
Sur une période de 20 jours, Samsung a documenté trois cas où l’utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement.
Un employé a copié le code source bogué d'une base de données de semi-conducteurs dans le chatbot et lui a demandé d'identifier un correctif. Un autre employé a fait de même pour un autre équipement, entrant des modèles de test confidentiels conçus pour identifier les puces défectueuses et demandant « l'optimisation du code » à ChatGPT. Un troisième employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document, puis a demandé au modèle d'IA de résumer les notes de réunion en préparation d'une présentation.
C'est alors que les dirigeants de Samsung sont intervenus, limitant l'invite de chaque employé à ChatGPT à 1 024 octets. La société a également lancé une enquête sur les trois employés en question et prévoit désormais de créer son propre chatbot à usage interne pour éviter des incidents similaires. Il faut dire qu'à peine trois semaines plus tôt, Samsung avait levé l'interdiction imposée aux employés d'utiliser ChatGPT en raison de préoccupations concernant ce problème. Après les récents incidents, il envisage de rétablir l'interdiction, ainsi que des mesures disciplinaires pour les employés, a déclaré The Economist Korea.
« Si un accident similaire se produit même après que des mesures de protection des informations d'urgence ont été prises, l'accès à ChatGPT peut être bloqué sur le réseau de l'entreprise », lit-on dans une note interne. « Dès que le contenu est saisi dans ChatGPT, les données sont transmises et stockées dans un serveur, ce qui empêche l'entreprise de les récupérer ».
D'ailleurs OpenAI, l'entreprise derrière ChatGPT, recommande dans une FAQ de ne pas partager les données sensibles : « Pouvez-vous supprimer des invites spécifiques ? Non, nous ne sommes pas en mesure de supprimer des invites spécifiques de votre historique. Veuillez ne pas partager d'informations sensibles dans vos conversations ».
Le cas de Samsung est loin d'être isolé
Une étude menée par la société de cybersécurité Cyberhaven, publiée en février (puis mis à jour en mars), affirme que 6,5 % des employés de différentes entreprises ont déjà transmis à ChatGPT des informations internes d’entreprise. Ci-dessous, un extrait de leur billet.
Depuis que ChatGPT a été lancé il y a trois mois, il a pris le monde d'assaut. Les gens l'utilisent pour créer des poèmes, des essais pour l'école et des paroles de chansons. Il fait également des incursions dans le milieu de travail. Selon les données du produit de Cyberhaven, au 21 mars, 8,2 % des employés avaient utilisé ChatGPT sur leur lieu de travail et 6,5 % y avaient collé les données de l'entreprise depuis son lancement. Certains travailleurs du savoir disent que l'utilisation de l'outil les rend 10 fois plus productifs. Mais des entreprises comme JP Morgan et Verizon bloquent l'accès à ChatGPT en raison de préoccupations concernant les données confidentielles.
Le problème de mettre les données de l'entreprise dans ChatGPT
OpenAI utilise le contenu que les gens mettent dans ChatGPT comme données de formation pour améliorer sa technologie. Ceci est problématique, car les employés copient et collent toutes sortes de données...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.