IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

26 % des organisations ont été victimes d'empoisonnement des données d'IA l'année dernière, les fausses informations et la désinformation générées par l'IA figurant en tête des menaces émergentes
D'après IO

Le , par Anthony

5PARTAGES

4  0 
26 % des organisations ont été victimes d'empoisonnement des données d'IA l'année dernière, les fausses informations et la désinformation générées par l'IA figurant en tête des menaces émergentes, d'après IO

Une nouvelle étude de la plateforme de sécurité informatique IO a révélé que 26 % des entreprises du Royaume-Uni et des États-Unis ont été victimes d'une attaque par empoisonnement des données de l'intelligence artificielle (IA) au cours de l'année écoulée. L'enquête a également révélé que les menaces liées aux deepfakes, au phishing basé sur l'IA générative et à l'IA fantôme (ou « Shadow AI ») sont en hausse, et que les fausses informations et la désinformation générées par l'IA figurent en tête de liste des menaces émergentes pour les douze prochains mois.

Pour rappel, le « data poisoning » est une pratique qui consiste à contaminer délibérément et malicieusement les données d'entraînement des systèmes d'IA et d'apprentissage automatique afin de compromettre leurs performances. Contrairement à d'autres techniques adversaires qui ciblent le modèle pendant l'inférence, les attaques par empoisonnement des données frappent pendant la phase d'entraînement. En introduisant, modifiant ou supprimant certains points de données dans un ensemble de données d'entraînement, les pirates peuvent induire des biais, des erreurs ou des vulnérabilités spécifiques qui se manifestent lorsque le modèle compromis prend des décisions ou fait des prédictions.

Selon la nouvelle étude menée par la plateforme de sécurité informatique IO (anciennement ISMS.online), 26 % des organisations interrogées au Royaume-Uni et aux États-Unis ont été victimes d'empoisonnement des données d'IA au cours de l'année écoulée. L'étude, qui a interrogé plus de 3 000 responsables de la cybersécurité et de la sécurité informatique, a révélé que 20 % des organisations ont également signalé avoir été victimes d'incidents de deepfake ou de clonage au cours de l'année dernière.


Au-delà des deepfakes, les fausses informations et la désinformation générées par l'IA figurent en tête de liste des menaces émergentes pour les 12 prochains mois, citées par 42 % des professionnels de la sécurité préoccupés par les escroqueries et les atteintes à la réputation. Le phishing basé sur l'IA générative (38 %) et l'utilisation abusive de l'IA fantôme sont également en hausse, plus d'un tiers (37 %) des personnes interrogées déclarant que les employés utilisent des outils d'IA générative sans autorisation ni encadrement, ce qui crée des risques de fuites de données, de violations de la conformité et d'atteinte à la réputation.

Le Shadow IT est déjà un problème pour 40 % des organisations, et l'IA générative ne fait qu'exacerber ce problème, en particulier lorsqu'elle est utilisée sans supervision humaine. 40 % des personnes actuellement confrontées à des défis en matière de sécurité de l'information citent comme principal défi les tâches effectuées par l'IA sans contrôle de conformité humain.

Chris Newton-Smith, PDG d'IO, déclare : « L'IA a toujours été une arme à double tranchant. Si elle offre d'énormes promesses, les risques évoluent tout aussi rapidement que la technologie elle-même. Trop d'organisations se sont précipitées et en paient aujourd'hui le prix. Les attaques par empoisonnement des données, par exemple, ne se contentent pas de compromettre les systèmes techniques, elles menacent également l'intégrité des services sur lesquels nous comptons. Ajoutez à cela l'IA fantôme, et il est clair que nous avons besoin d'une gouvernance plus forte pour protéger à la fois les entreprises et le public. »


Il est intéressant de noter que 54 % des personnes interrogées admettent aujourd'hui avoir déployé cette technologie trop rapidement et avoir désormais du mal à la réduire ou à la mettre en œuvre de manière plus responsable. Dans le même ordre d'idées, 39 % des personnes interrogées citent la sécurisation des technologies d'IA et d'apprentissage automatique comme l'un des principaux défis auxquels elles sont actuellement confrontées, soit une forte augmentation par rapport aux 9 % enregistrés l'année dernière. Parallèlement, 52 % déclarent que l'IA et l'apprentissage automatique entravent leurs efforts en matière de sécurité.

L'IA fait également partie des efforts défensifs : 79 % des organisations britanniques et américaines utilisent l'IA, l'apprentissage automatique ou la blockchain à des fins de sécurité, contre seulement 27 % en 2024. En outre, 96 % d'entre elles prévoient d'investir dans la détection et la défense des menaces grâce à l'IA générative, 94 % vont déployer des outils de détection et de validation des deepfakes, et 95 % s'engagent à mettre en œuvre une gouvernance et une politique en matière d'IA au cours de l'année à venir.

« Le Centre national de cybersécurité du Royaume-Uni a déjà averti que l'IA rendra très certainement les cyberattaques plus efficaces au cours des deux prochaines années, et nos recherches montrent que les entreprises doivent agir dès maintenant. Beaucoup renforcent déjà leur résilience, et en adoptant des cadres tels que la norme ISO 42001, les organisations peuvent innover de manière responsable, protéger leurs clients, se remettre plus rapidement et communiquer clairement leurs défenses en cas d'attaque », ajoute Chris Newton-Smith.

Ces révélations interviennent à un moment où l'IA transforme en profondeur l'Internet lui-même. En effet, l'IA est en train de tuer le Web : les chatbots fournissent désormais des réponses directes sans nécessairement renvoyer aux créateurs, ce qui ruine le trafic et le modèle économique des sites Web. Par ailleurs, les données synthétiques générées par l'IA transforment la toile en une immense base de contenus recyclés par des machines sans originalité.

Source : Etude de la plateforme de sécurité informatique IO

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions de cette étude d'IO crédibles ou pertinentes ?

Voir aussi :

Les systèmes d'IA font face à des menaces croissantes : le NIST a identifié les différents types de cyberattaques qui manipulent le comportement des systèmes d'IA

Cloudflare annonce le développement de Firewall for AI, une couche de protection qui peut être déployée devant les LLM afin d'identifier les abus avant qu'ils n'atteignent les modèles d'IA
Vous avez lu gratuitement 2 556 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !