Snyk, société spécialisée dans la sécurité des IA, dévoile l'AI Security Fabric, une plateforme assurant une défense continue tout au long du cycle de vie du développement logiciel (SDLC). En unifiant la visibilité, la prévention et la gouvernance, l'AI Security Fabric permet aux entreprises de commercialiser des logiciels basés sur l'IA en toute sécurité et à la vitesse de l'IA. La plateforme de sécurité des IA, AI Security Fabric, sécurise le développement d’IA générative dès la création de code mais également les agents et logiciels natifs IA. Elle organise la structure en trois vecteurs unifiés : la base (DevSecOps accéléré par l'IA), l'accélérateur (développement basé sur l'IA) et la frontière (logiciels natifs IA).En 2024, un rapport de Legit Security, basé sur une enquête menée auprès de plus de 400 professionnels de la sécurité et développeurs de logiciels en Amérique du Nord, révèle que 96 % des professionnels de la sécurité et du développement de logiciels déclarent que leurs entreprises utilisent des solutions basées sur l'IA générative pour créer ou fournir des applications. En outre, le rapport montre que 85 % des développeurs s'inquiètent des risques de sécurité liés au fait de s'appuyer sur la GenAI pour développer des logiciels et 94 % déclarent avoir besoin de moyens plus efficaces pour gérer l'utilisation de l'IA générative dans les efforts de recherche et de développement de leur entreprise.
Dans ce contexte, Snyk, société spécialisée dans la sécurité des IA, dévoile l'AI Security Fabric, une plateforme assurant une défense continue tout au long du cycle de vie du développement logiciel (SDLC). En unifiant la visibilité, la prévention et la gouvernance, l'AI Security Fabric permet aux entreprises de commercialiser des logiciels basés sur l'IA en toute sécurité et à la vitesse de l'IA.
Aujourd'hui, les développeurs et les concepteurs utilisent non seulement l'IA pour écrire du code et alimenter des applications, mais ils sont également confrontés à une augmentation rapide des cybermenaces liées à l'IA. Ce système aide les entreprises à réduire les risques cumulés sans ralentir l'innovation. L'augmentation de la dette de sécurité, les nouveaux vecteurs d'attaque et le manque de gouvernance dans le développement basé sur l'IA aggravent les risques sur une surface d'attaque en constante expansion. Alors que l'infrastructure IA devient la trame de l'informatique moderne, les entreprises ont besoin d'une trame de sécurité qui assure une protection continue, et non ponctuelle.
La plateforme de sécurité des IA, AI Security Fabric, sert de moteur à cette vision, sécurisant le développement d’IA générative dès la création de code mais également les agents et logiciels natifs IA. Elle organise la structure en trois vecteurs unifiés : la base (DevSecOps accéléré par l'IA), l'accélérateur (développement basé sur l'IA) et la frontière (logiciels natifs IA).
Lorsque la création dépasse la vitesse humaine, les risques s'accélèrent également
Le passage au développement basé sur l'IA a bouleversé les modèles de sécurité traditionnels, créant une surface d'attaque fragmentée où convergent les menaces autonomes et les vulnérabilités héritées, ce qui multiplie les risques à la vitesse des machines. Snyk a identifié trois défis que l’AI Security adresse :
- Les vulnérabilités apparaissent à un rythme plus rapide : le volume de code explose en raison de l'adoption rapide des pratiques de codage assistées par l'IA. La sécurité doit aller au-delà de l'analyse réactive pour être « sécurisée dès le départ », en stoppant le flux de nouvelles vulnérabilités qui contribuent à l'augmentation des retards en matière de sécurité.
- Le temps nécessaire à l'exploitation des vulnérabilités diminue : selon Gartner, l'IA devrait accélérer l'exploitation des vulnérabilités de 50 % d'ici 20271. Les attaques automatisées ciblant toutes les expositions disponibles, les organisations doivent systématiquement réduire leur dette de sécurité afin de diminuer leur profil de risque.
- L'IA a un effet cumulatif sur les risques : le passage au développement natif de l'IA a déclenché une explosion de modèles non gérés et d'agents autonomes dans les workflows de livraison et dans les logiciels eux-mêmes. Cette « Shadow AI » crée une surface d'attaque fragmentée où le danger ne réside plus seulement dans le code, mais aussi dans l'action de l'IA elle-même. Un agent compromis peut enchaîner de manière autonome de nouvelles menaces avec des vulnérabilités précédemment « mises en veille », ce qui aggrave les risques plus rapidement que les équipes humaines ne peuvent y remédier.
De nouvelles données issues du rapport 2026 State of Agentic AI Adoption de Snyk, qui analyse des informations anonymisées provenant de plus de 500 environnements Evo d'entreprise, révèlent que le « Shadow AI » est beaucoup plus répandu que ne le pensent les organisations. Pour chaque modèle d'IA déployé, les entreprises introduisent généralement près de trois fois plus de composants logiciels cachés, notamment des ensembles de données et des outils tiers. Avec 82 % des outils d'IA provenant de packages externes, les entreprises élargissent sans le savoir une vaste chaîne d'approvisionnement logicielle non...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.