IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les employés utilisent de plus en plus l'IA fantôme pour rédiger des e-mails, analyser des données ou résumer des réunions, mais prétendent ne pas le faire
Ce qui soulève des problèmes de sécurité

Le , par Anthony

5PARTAGES

4  0 
Les employés utilisent de plus en plus l'IA fantôme pour rédiger des e-mails, analyser des données ou résumer des réunions, mais prétendent ne pas le faire, ce qui soulève des problèmes de sécurité

Un nombre croissant de travailleurs s'appuient discrètement sur l'« intelligence artificielle (IA) fantôme » (ou Shadow AI) pour accomplir des tâches quotidiennes telles que la rédaction d'e-mails, l'analyse de données ou le résumé de réunions, mais prétendent ne pas le faire par crainte d'être jugés. Un étude récente de l'agence de marketing OutreachX a révélé que près de la moitié des employés de bureau américains hésitent à divulguer leur utilisation de l'IA à leurs supérieurs, invoquant des préoccupations liées à la sécurité de l'emploi et à la perception de leurs compétences. La situation soulève cependant des inquiétudes en matière de sécurité.

Ces révélations viennent conforter les conclusions d'un précédent rapport d'Harmonic Security indiquant que plus de 50 % des salariés utilisent des outils d'IA génératives non autorisés, mettant ainsi en péril la sécurité des données et créant une forme de « Shadow AI » aussi invisible que potentiellement dangereuse.

Pour rappel, le terme Shadow AI (ou IA fantôme) désigne l'utilisation, par des employés ou des départements, d'outils et d'applications d'IA sans l'approbation ou la supervision du service informatique de l'organisation. Ce phénomène s'inscrit dans la continuité du Shadow IT et reflète la tendance croissante à recourir à des solutions technologiques non validées officiellement pour répondre rapidement à des besoins professionnels spécifiques.

Selon les nouvelles données fournies par l'agence de marketing OutreachX, 52 % des travailleurs américains s'inquiètent de la manière dont l'IA sera utilisée sur leur lieu de travail à l'avenir et 48 % des employés de bureau déclarent qu'ils seraient mal à l'aise de dire à leur responsable qu'ils ont utilisé l'IA pour des tâches courantes.


Les principales raisons invoquées pour dissimuler l'utilisation de l'IA sont la crainte de passer pour des tricheurs, des paresseux ou des employés moins compétents, ainsi que le manque de clarté des règles relatives à l'utilisation de l'IA sur le lieu de travail. 45 % des travailleurs déclarent avoir utilisé l'IA sans en informer leur supérieur hiérarchique, et 25 % admettent avoir exagéré leurs compétences en matière d'IA, un classique de la gestion de l'image sous pression. En outre, 27 % déclarent ressentir un sentiment d'imposture lié à l'IA, tandis que 30 % cachent son utilisation par crainte de perdre leur emploi.

Tout cela comporte bien sûr des risques réels : 46 % des personnes interrogées admettent avoir téléchargé des données sensibles de leur entreprise vers des outils publics, tandis que 44 % utilisent sciemment l'IA de manière non autorisée. Sans gouvernance et sans habilitation claires, les investissements se dispersent entre des outils fantômes, des flux de travail fragmentés et des retouches évitables, ce qui peut entraîner des pertes de productivité et d'efficacité se chiffrant en millions de dollars.

Pour résoudre ce problème, OutreachX indique qu'il faut un changement culturel où la divulgation est normalisée, les employés ajoutant une note « AI assist » pour indiquer comment l'IA a été utilisée dans une tâche particulière. Les entreprises doivent également fournir des outils approuvés, définir les données et les cas d'utilisation autorisés, restreindre les copier-coller à partir de systèmes sensibles vers des modèles publics et conserver les journaux de prompts/résultats lorsque cela est approprié.

La formation est également essentielle, les employés qui suivent une formation sur l'IA étant jusqu'à 19 fois plus susceptibles de signaler des gains de productivité. Les utilisateurs réguliers de l'IA sont également beaucoup plus susceptibles de faire état d'une forte productivité, d'une grande concentration et d'une grande satisfaction professionnelle.

Le rapport souligne que « ce qui se passe dans de nombreux bureaux n'est pas lié à la fragilité des employés ou à l'engouement pour la technologie. Il s'agit plutôt d'une question d'organisation. Tant que les employés penseront que le fait de reconnaître leur utilisation de l'IA nuira à leur réputation ou déclenchera une surveillance accrue, ils opteront par défaut pour la discrétion. Cette discrétion augmente les erreurs, affaiblit la surveillance et sape le rendement des initiatives en matière d'IA. Les organisations qui codifient la divulgation, sanctionnent les outils sûrs, enseignent l'évaluation, fournissent des conseils en cours de route, attribuent la propriété et présentent l'IA comme une aide peuvent transformer l'anxiété en compétence et faire passer la « honte de l'IA » à un flux de travail standard et vérifiable. »

Les conclusions de cette étude d'OutreachX coïncident avec une croissance annuelle explosive de 3 000 % de l'utilisation de l'IA par les entreprises, mettant en lumière à la fois son adoption rapide et les risques de sécurité liés à son utilisation. D'après un récent rapport de Zscaler sur la sécurité de l'IA, ChatGPT apparaît comme l'application d'IA/ML la plus utilisée. Cependant, il s'agit également de l'outil le plus bloqué en raison des préoccupations croissantes des entreprises concernant l'exposition des données sensibles et l'utilisation non autorisée. Parmi les autres applications fréquemment bloquées figurent Grammarly, Microsoft Copilot, QuillBot et Wordtune, qui témoignent d'une large utilisation de l'IA pour la création de contenu et l'amélioration de la productivité.

Source : Etude de l'agence de marketing OutreachX

Et vous ?

Quelle lecture faites-vous de cette situation ?
Trouvez-vous les conclusions de cette étude d'OutreachX crédibles ou pertinentes ?

Voir aussi :

Seulement 58 % des salariés français déclarent avoir déjà utilisé l'IA au travail, tout en redoutant l'obsolescence de leur métiers, contre 66 à 73 % chez leurs voisins européens

L'utilisation de l'IA au travail a presque doublé au cours des deux dernières années, et les employés affirment qu'il est très probable que l'automatisation, les robots ou l'IA éliminent leur emploi

Les salariés veulent l'IA au travail et n'attendront pas que les entreprises les rattrapent, car pour eux l'IA place la barre plus haut et brise leur plafond de carrière, d'après Microsoft
Vous avez lu gratuitement 13 815 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !