Les attaques visant les grands modèles de langage (LLM) sont à la fois fréquentes et rapides, avec une durée moyenne de seulement 42 secondes. Ces attaques réussissent dans 20 % des cas et exposent des données sensibles dans 90 % des situations. Selon le rapport State of Attacks on GenAI, publié récemment, qui repose sur des données télémétriques et des exemples concrets collectés auprès de plus de 2 000 applications d'IA, les chatbots de service client sont les cibles les plus visées. Les attaques incluent des techniques comme les jailbreaks (qui contournent les filtres de sécurité) et les injections d'invite (qui manipulent le comportement des modèles), mettant en lumière les vulnérabilités des LLM. Face à l'expansion rapide de la surface d'attaque de l'IA générative, les chercheurs alertent sur l’augmentation des menaces. Une question cruciale se pose : avec la généralisation de l’IA, les stratégies de sécurité actuelles seront-elles capables de protéger contre ces nouvelles vulnérabilités ?L'IA générative ouvre de vastes perspectives en matière de productivité et d'innovation, offrant des opportunités uniques. Cependant, à mesure que les modèles et cas d'utilisation évoluent à un rythme rapide, les responsables de la sécurité et de l'IA peinent à trouver un équilibre entre les avantages de ces technologies et les risques qu'elles génèrent, notamment en ce qui concerne les vulnérabilités de sécurité. Bien que de nombreuses études théoriques aient été menées, l'analyse des attaques réelles et des risques concrets demeure insuffisante. Le rapport de Pillar Security pallie cette lacune en offrant une analyse détaillée des menaces actuelles, dévoilant ainsi un aperçu inédit du paysage des risques liés à l'IA. Cette étude repose sur des données télémétriques collectées lors de l’analyse de plus de 2 000 applications réelles alimentées par des LLM au cours des trois derniers mois, mettant en évidence plusieurs points clés.
Taux élevé de succès des attaques
- Exposition des données : 90 % des attaques réussies ont entraîné la fuite de données sensibles ;
- Contournement des protections : 20 % des tentatives de jailbreak ont réussi à franchir les filtres de sécurité des applications GenAI ;
- Exécution rapide : En moyenne, une attaque prend seulement 42 secondes, soulignant la rapidité avec laquelle les vulnérabilités peuvent être exploitées ;
- Interaction minimale : Les attaquants n’ont besoin en moyenne que de cinq interactions pour mener à bien une attaque.
Les trois techniques de jailbreak les plus courantes
- Ignorer les instructions précédentes : Les attaquants ordonnent à l'IA d'ignorer ses directives initiales, ce qui permet de générer des contenus nuisibles et de violer des règles éthiques ;
- Attaque à la force brute : Des demandes insistantes poussent l'IA à se conformer, ce qui peut conduire à la fuite d'informations sensibles ou à des actions non autorisées, compromettant la sécurité du système ;
- Codage Base64 : Les invites malveillantes sont encodées en Base64 pour contourner les filtres de sécurité, permettant ainsi l’exécution de code malveillant ou l’extraction de données protégées.
Surface d'attaque étendue
Les attaques exploitent des vulnérabilités à chaque étape de l'interaction avec les LLM, y compris les invites, les réponses générées, et les sorties des outils. Cela met en évidence la nécessité d’une sécurité renforcée tout au long du cycle de vie des interactions avec les modèles LLM.
Perspectives pour 2025 et risques liés à une IA mal sécurisée
D’ici 2025, la prolifération incontrôlée de technologies d’IA sans mesures de sécurité adéquates pourrait entraîner des risques majeurs. L’intégration croissante de l’IA par les grandes entreprises technologiques étend rapidement la surface d’attaque à l’échelle mondiale. En parallèle, la généralisation des modèles d'IA locaux pourrait compliquer encore davantage la gestion des menaces, en raison du nombre élevé de points de terminaison décentralisés à surveiller. L’émergence d’agents autonomes, capables d’interagir avec divers environnements et de prendre des décisions indépendantes, ajoute une nouvelle couche de complexité. L’essor de l'IA générative, l’adoption des modèles locaux et le développement des agents autonomes forment ainsi un paysage de menaces multifacettes qui nécessite une vigilance accrue et une réponse immédiate.
Les chercheurs de Pillar ont observé que les jailbreaks réussissent à contourner les protections dans 20 % des cas, soulignant l’urgence d'adapter les stratégies de sécurité face à cette menace croissante. Dor Sarig, PDG de Pillar Security, a déclaré à SC Media que "dans un avenir proche, chaque application sera une application d'IA, ce qui bouleverse profondément notre approche de la sécurité". Les chatbots de service client sont les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.