97 % des organisations utilisent déjà ou testent des assistants de codage IA et disposent de code généré par l'IA dans leurs bases de code, mais 65 % signalent une augmentation des risques associés à l'IA. un nouveau rapport de Cycode a révélé que si l'adoption de l'IA est désormais quasi universelle, la gouvernance et la visibilité n'ont pas suivi le rythme. L'étude montre que 97 % des organisations utilisent déjà ou testent des assistants de codage IA, et toutes confirment avoir du code généré par l'IA dans leurs bases de code. Pourtant, malgré cette adoption quasi totale, 81 % manquent de visibilité sur l'utilisation de l'IA et 65 % signalent une augmentation des risques de sécurité associés à l'IA.
La sécurité reste le grand oublié dans le déploiement de l'IA. Cisco Talos a découvert des centaines de serveurs Ollama pouvant être utilisés à des fins malveillantes pour toutes sortes de cybercrimes. Les menaces potentielles comprennent les attaques par extraction de modèles, le jailbreaking et l'utilisation abusive de contenu ou l'injection de portes dérobées et l'empoisonnement de modèles (déploiement de logiciels malveillants). Les serveurs ont été facilement découverts grâce à une recherche rapide sur Shodan. Dans une enquête, les organisations ont déclaré que l'IA générative rend les menaces internes plus efficaces.
Récemment, un nouveau rapport de Cycode a révélé que si l'adoption de l'IA est désormais quasi universelle, la gouvernance et la visibilité n'ont pas suivi le rythme. L'étude montre que 97 % des organisations utilisent déjà ou testent des assistants de codage IA, et toutes confirment avoir du code généré par l'IA dans leurs bases de code. Pourtant, malgré cette adoption quasi totale, 81 % manquent de visibilité sur l'utilisation de l'IA et 65 % signalent une augmentation des risques de sécurité associés à l'IA.
Près d'un tiers (30 %) des personnes interrogées déclarent que l'IA crée désormais la majorité du code dans leur organisation. Les participants estiment dans leur grande majorité que l'IA augmente la productivité (78 %), la qualité du code (79 %) et accélère la mise sur le marché (72 %).
Mais si l'IA stimule la productivité, elle introduit également des risques importants. Malgré l'adoption quasi universelle de l'IA, la plupart des organisations (52 %) ne disposent pas d'un cadre formel de gouvernance de l'IA. Cela a conduit à une prolifération de l'IA fantôme, notamment à la diffusion rapide et non contrôlée d'outils de développement, de modèles et d'assistants de codage basés sur l'IA.
« Les résultats sont clairs : le développement de l'IA n'est plus une tendance future, c'est une réalité d'aujourd'hui. Alors que la sécurité peine à suivre le rythme de cette adoption rapide, le terrain est propice à une violation importante de la chaîne d'approvisionnement, avec l'IA fantôme comme vecteur d'attaque », déclare Lior Levy, PDG et cofondateur de Cycode. « Il ne suffit plus de simplement trouver les vulnérabilités dans le code généré par l'IA. La propagation rapide de l'IA fantôme exige une réponse stratégique : nous devons obtenir une visibilité et une gouvernance complètes sur l'ensemble de la chaîne d'outils d'IA. C'est pourquoi Cycode fournit aux organisations la visibilité, les politiques et les contrôles essentiels nécessaires pour sécuriser le développement de l'IA, de la conception à la production. »
Pour l'avenir, 97 % des organisations interrogées déclarent qu'elles prévoient d'unifier leur pile de sécurité des applications au cours des 12 prochains mois, et 100 % d'entre elles investissent dans des initiatives liées à l'IA. Ce pivot est une réponse directe à la complexité introduite par l'IA. Les dirigeants rejettent la « prolifération des outils » du passé. Au lieu de cela, ils investissent dans des plateformes unifiées afin de gagner en visibilité, de réduire le bruit et de gérer les risques liés à l'IA tout au long de la chaîne d'approvisionnement logicielle.
Ces conclusions rappellent un rapport de Legit Security. Basé sur une enquête menée auprès de plus de 400 professionnels de la sécurité et développeurs de logiciels en Amérique du Nord, le rapport révèle que 96 % des professionnels de la sécurité et du développement de logiciels déclarent que leurs entreprises utilisent des solutions basées sur l'IA générative pour créer ou fournir des applications. La plupart des développeurs (85 %) et des équipes de sécurité (75 %) ont des inquiétudes en matière de sécurité quant au fait de s'appuyer sur l'IA générative (GenAI) pour développer des logiciels.
Source : The 2026 State of Product Security For The AI Era
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?Voir aussi :
85 % des chefs d'entreprise déclarent que la cybersécurité est essentielle à la croissance de l'entreprise et 61 % sont préoccupés par les menaces de cybersécurité à cause de l'IA, selon Gartner
80 % des projets d'IA échouent et des milliards sont gaspillés, ce qui représente le double du taux d'échec, déjà élevé, des projets IT des entreprises qui n'impliquent pas l'IA, selon un rapport du RAND
Seulement 11% des entreprises françaises ont pleinement déployé des modèles d'IA générative. Elles sont néanmoins 55% à prévoir un déploiement futur, d'après SAS
Vous avez lu gratuitement 9 126 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.