L'enquête menée auprès de la communauté ClubCISO, en collaboration avec Telstra Purple, met en évidence la confiance des RSSI dans l'IA générative au sein de leurs organisations.
En outre, 45 % des répondants suggèrent qu'ils autorisent désormais les outils d'IA générative pour des applications spécifiques, le service du RSSI prenant la décision finale quant à leur utilisation. Seuls 23 % disposent également de règles spécifiques à une région ou à une fonction pour régir l'utilisation de l'IA générative. Les résultats représentent un changement marqué par rapport au moment où les applications d'IA générative ont fait leur apparition à la suite du lancement de ChatGPT et où les préoccupations en matière de confidentialité et de sécurité des données constituaient des risques prioritaires pour les organisations.
Malgré les préoccupations actuelles concernant la confidentialité des données d'applications spécifiques, 54 % des RSSI sont convaincus de savoir comment les outils d'IA utiliseront ou partageront les données qui leur sont transmises, et 41 % ont une politique couvrant l'IA et son utilisation. En revanche, seuls 9 % déclarent ne pas avoir de politique régissant l'utilisation des outils d'IA et n'ont pas défini d'orientation dans un sens ou dans l'autre. 57 % des RSSI estiment également que leur personnel est conscient et attentif aux implications de l'utilisation des outils d'IA en matière de protection des données et de propriété intellectuelle.
Rob Robinson, responsable de Telstra Purple EMEA, explique :
Bien que nous entendions encore des exemples de données propriétaires introduites dans des outils d'IA et que ces mêmes données refassent surface en dehors des frontières d'une organisation, nos membres nous disent qu'il s'agit d'un risque connu, non seulement au sein de leurs équipes, mais aussi dans l'ensemble de la population d'employés.
L'IA générative est à juste titre considérée comme une opportunité pour les organisations. Sa force disruptive se déchaîne dans tous les secteurs et toutes les fonctions, et plutôt que de ralentir le rythme d'adoption, notre enquête souligne que les RSSI ont pris le temps de comprendre et d'éduquer leurs organisations sur les risques associés à l'utilisation de tels outils. Il s'agit d'une rupture par rapport à la vision traditionnelle de la sécurité comme obstacle à l'innovation.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les résultats de cette enquête crédibles ou pertinents ?
Voir aussi :
Les risques liés à l'IA connaîtront la plus forte augmentation de couverture d'audit en 2024, la GenAI crée des risques nouveaux et accrus pour la sécurité des données, selon Gartner
Les développeurs et les responsables de la sécurité des applications se tournent vers l'IA générative, malgré les risques de sécurité identifiés, selon une étude de Sonatype
La moitié des employés utilisent la GenAI au travail pour des activités complexes, alors que seulement 41 % des entreprises évaluent activement la GenAI ou en ont fait une priorité, selon Betterworks