
Ceci étant dit, il est important de noter que 6 % des données envoyées à ChatGPT peuvent être considérées comme sensibles. Cela peut être dangereux car c'est le genre de chose qui pourrait potentiellement ajouter ces données à la propre base de données de ChatGPT, la rendant ainsi beaucoup moins sûre qu'elle ne l'aurait été autrement.
43 % des données sensibles envoyées par inadvertance à des outils d'IA concernent des informations commerciales internes, 31 % d'entre elles consistent en un code source, et 12 % constituent le sous-ensemble extrêmement sensible des données personnelles identifiables, tous les éléments ayant été pris en compte.
Cela pourrait très bien conduire des concurrents ou même des acteurs malveillants à mettre la main sur ces données, et si cela devait se produire, les entreprises qui ont perdu ces données ne s'en rendraient même pas compte avant qu'il ne soit trop tard. 44 % des travailleurs utilisent actuellement ChatGPT au moins une fois au cours des trois derniers mois, et certains d'entre eux visitent ce site ou d'autres sites similaires plus de 50 fois par mois.
4 % de l'ensemble des employés collent activement des données sensibles dans ChatGPT chaque semaine, 50 % d'entre eux travaillant dans les départements de recherche et développement de leur employeur actuel. 23 % appartiennent à des services de vente et de marketing, et 14 % à des services qui gèrent les affaires financières.
Les employés doivent être informés des risques encourus, car cela peut augmenter considérablement la probabilité de cyberattaques. Cela peut également conduire à l'espionnage d'entreprise, ce qui peut avoir un effet d'entraînement sur l'ensemble de la communauté des affaires.
Source : Layer X
Et vous ?




Voir aussi :



