Les recherches menées par Lakera montrent que les méthodes d'attaque spécifiques à la GenAI, ou attaques par invite, sont facilement utilisables par n'importe qui pour manipuler les applications, obtenir un accès non autorisé, voler des données confidentielles et entreprendre des actions non autorisées.
Gandalf, un jeu éducatif sur l'IA créé par Lakera, invite les joueurs à essayer de tromper l'IA pour qu'elle révèle un mot de passe. Il a attiré plus d'un million de joueurs, dont des experts en cybersécurité qui ont tenté de percer ses défenses. Fait remarquable, 200 000 de ces joueurs ont réussi à franchir sept niveaux du jeu, démontrant ainsi leur capacité à manipuler les modèles de GenAI pour leur faire prendre des mesures involontaires.
« Il suffit de quelques mots bien choisis pour que même un novice puisse manipuler les systèmes d'IA, ce qui entraîne des actions involontaires et des violations de données », déclare David Haber, cofondateur et PDG de Lakera. « Alors que les entreprises s'appuient de plus en plus sur la GenAI pour accélérer l'innovation et gérer des tâches sensibles, elles s'exposent sans le savoir à de nouvelles vulnérabilités que les mesures de cybersécurité traditionnelles ne prennent pas en compte. La combinaison d'une forte adoption et d'une faible préparation n'est peut-être pas si surprenante dans un domaine émergent, mais les enjeux n'ont jamais été aussi importants. »
Parmi les autres résultats de l'étude, la fiabilité et la précision du LLM sont considérées comme le principal obstacle à l'adoption. 35 % des personnes interrogées craignent la fiabilité et la précision du LLM, tandis que 34 % sont préoccupées par la confidentialité et la sécurité des données. Le manque de personnel qualifié représente 28 % des préoccupations.
Malgré ces inquiétudes, 45 % des personnes interrogées explorent les cas d'utilisation de la GenAI, 42 % utilisent et mettent en œuvre activement la GenAI et seulement 9 % n'ont pas l'intention d'adopter les LLM pour le moment. Seuls 22 % des répondants ont adopté une modélisation des menaces spécifiques à l'IA pour se préparer aux menaces spécifiques à la GenAI.
À propos de Lakera
Lakera est le leader mondial de la sécurité GenAI en temps réel. Les clients font confiance à la plateforme de sécurité de l'IA de Lakera pour une sécurité qui ne ralentit pas leurs applications d'IA. Pour accélérer l'adoption sécurisée de l'IA, l'entreprise a créé Gandalf, une plateforme éducative où plus d'un million d'utilisateurs se sont familiarisés avec la sécurité de l'IA. Lakera utilise l'IA pour faire évoluer en permanence les défenses, afin que les clients puissent garder une longueur d'avance sur les menaces émergentes.
Source : "GenAI Security Readiness Report 2024" (Etude de Lakera)
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions de cette étude de Lakera crédibles ou pertinentes ?
Voir aussi :
Les craintes liées à la sécurité conduisent les entreprises à interdire l'utilisation de la GenAI : 27 % des organisations ont interdit l'utilisation de l'IA générative, selon Cisco
52 % des membres de conseils d'administration français considèrent l'IA générative comme un risque pour la sécurité de l'entreprise, pour 84 % d'entre eux, la cybersécurité est une priorité