IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La sécurité reste le grand oublié dans le déploiement de l'IA : Cisco a découvert 1 100 serveurs Ollama ouverts en ligne et exposés à des accès non autorisés,
Ce qui crée divers risques graves pour les hôtes

Le , par Mathis Lucas

7PARTAGES

3  0 
La sécurité reste le grand oublié dans le déploiement de l'IA : Cisco a découvert 1 100 serveurs Ollama ouverts en ligne et exposés à des accès non autorisés
ce qui crée divers risques graves pour les hôtes

Les entreprises négligent les pratiques de sécurité fondamentales ». Cisco Talos a découvert des centaines de serveurs Ollama pouvant être utilisés à des fins malveillantes pour toutes sortes de cybercrimes. Les menaces potentielles comprennent les attaques par extraction de modèles, le jailbreaking et l'utilisation abusive de contenu ou l'injection de portes dérobées et l'empoisonnement de modèles (déploiement de logiciels malveillants). Les serveurs ont été facilement découverts grâce à une recherche rapide sur Shodan. Dans une enquête récente, les organisations ont déclaré que l'IA générative rend les menaces internes plus efficaces.

Dans la course à l'adoption des nouvelles technologies en vogue, la sécurité est très souvent négligée. Et l'IA ne fait pas exception. Le déploiement rapide de grands modèles de langage (LLM) a introduit d'importantes vulnérabilités en matière de sécurité en raison de mauvaises configurations et de contrôles d'accès inadéquats. Cisco Talos, une équipe de recherche en cybersécurité et de renseignement sur les menaces, expose le cas des serveurs Ollama.

Ollama est un outil open source conçu pour exécuter localement de grands modèles de langage sur votre propre ordinateur. Disponible pour macOS, Windows et Linux, Ollama permet de faire fonctionner des modèles tels que LLaMA, Mistral, CodeLlama, et bien d'autres, sans nécessiter de connexion Internet.

Cisco a décidé de mener des recherches à ce sujet, car, selon les termes du Dr Giannis Tziakouris, architecte senior en réponse aux incidents, « Ollama a gagné en popularité grâce à sa facilité d'utilisation et ses capacités de déploiement local ». Les chercheurs de Cisco Talos ont utilisé l'outil d'analyse Shodan pour trouver des serveurs Ollama non sécurisés. Shodan est un moteur de recherche qui indexe principalement les appareils connectés à Internet.

L'équipe a repéré plus de 1 100 serveurs, dont « environ 20 % hébergent activement des modèles susceptibles d'être exposés à des accès non autorisés ». Son analyse a permis de trouver plus de 1 000 serveurs exposés en moins de 10 minutes après le début de son balayage d'Internet.


Résultats de l'outil sur l'analyse d'un serveur LLM exposé

Laisser un serveur Ollama accessible sur Internet signifie que toute personne qui apprend son existence peut interroger le modèle et utiliser son API, ce qui peut entraîner l'épuisement de toutes ses ressources ou générer des coûts importants pour les systèmes hébergés. Mais ce n'est pas la plus grande menace. Des attaques ciblées sont possibles, car l'équipe a découvert que plusieurs serveurs exposent des informations permettant d'identifier les hôtes.

Les enquêteurs en sécurité informatique de Cisco s'inquiètent également des conséquences suivantes :

  • attaques par extraction de modèles : les pirates peuvent reconstruire les paramètres d'un modèle en interrogeant de manière répétée un serveur ML exposé ;
  • jailbreaking et abus de contenu : les LLM tels que GPT-4, LLaMA et Mistral peuvent être manipulés pour générer du contenu restreint, notamment des informations erronées, des codes malveillants ou des résultats nuisibles ;
  • injection de porte dérobée et empoisonnement de modèle : les pirates pourraient exploiter des points de terminaison de modèle non sécurisés pour introduire des charges utiles malveillantes ou charger à distance des modèles non fiables.


La plupart des serveurs exposés se trouvent aux États-Unis (36,6 %), suivis par la Chine (22,5 %) et l'Allemagne (8,9 %). Cisco a classé 80 % des serveurs Ollama ouverts qu'il a repérés comme « inactifs », car ils n'exécutaient aucun modèle, ce qui signifie que les attaques susmentionnées seraient vaines. La mauvaise nouvelle est que « ces serveurs restent vulnérables à l'exploitation via des téléchargements de modèles non autorisés ou des manipulations de configuration ».

Les 20 % restants, en revanche, « hébergent activement des modèles susceptibles d'être piratés », comme l'explique Cisco Talos. Les chercheurs ont averti que « leurs interfaces exposées pourraient toujours être utilisées dans le cadre d'attaques visant à épuiser les ressources, à provoquer des dénis de service ou à effectuer des mouvements latéraux ».

Les organisations affirment que l'IA rend les menaces internes plus efficaces

Selon un rapport récent de la société de cybersécurité Exabeam, l'IA rend les menaces internes plus efficaces. Ce rapport montre également que 53 % des personnes interrogées ont constaté une augmentation mesurable des incidents internes au cours de l'année écoulée. Selon les experts d'Exabeam, l'IA générative est l'un des principaux facteurs à l'origine de cette évolution, car elle rend les attaques plus rapides, plus furtives et plus difficiles à détecter.

L'enquête menée par Exabeam auprès de plus de 1 000 professionnels de la cybersécurité révèle que 64 % des personnes interrogées considèrent désormais les initiés, qu'ils soient malveillants ou compromis, comme un risque plus important que les acteurs externes.

« Les initiés ne sont plus seulement des personnes », explique Steve Wilson, directeur de l'IA et des produits chez Exabeam. « Ce sont des agents IA qui se connectent avec des identifiants valides, usurpent des voix de confiance et agissent à la vitesse d'une machine. La question n'est pas seulement de savoir qui a accès, mais aussi si vous pouvez détecter quand cet accès est utilisé de manière abusive. »

La majorité (54 %) s'attend à ce que la croissance des incidents internes se poursuive. Les organisations gouvernementales se préparent à la hausse la plus forte (73 %), suivies par l'industrie manufacturière (60 %) et les soins de santé (53 %), alimentées par l'accès croissant aux systèmes et aux données sensibles.

L'IA est devenue un multiplicateur de force pour les menaces internes, permettant aux acteurs d'opérer avec une efficacité et une subtilité sans précédent. Deux des trois principaux vecteurs de menaces internes actuels sont désormais liés à l'IA, le phishing et l'ingénierie sociale améliorés par l'IA apparaissant comme les tactiques les plus préoccupantes (27 %). Ces attaques peuvent s'adapter en temps réel, imiter des communications légitimes et exploiter la confiance à une échelle et à une vitesse que les adversaires humains ne peuvent égaler.

L'utilisation non autorisée de l'IA générique ajoute à la difficulté, créant un scénario à double risque où les mêmes outils destinés à stimuler la productivité peuvent être détournés à des fins malveillantes. Plus des trois quarts des organisations (76 %) signalent un certain niveau d'utilisation non approuvée, les secteurs de la technologie (40 %), des services financiers (32 %) et des administrations publiques (38 %) enregistrant les taux les plus élevés. Les variations régionales sont révélatrices : au Moyen-Orient, l'utilisation non autorisée de l'IA générique est la principale préoccupation interne (31 %), ce qui reflète à la fois l'adoption rapide de l'IA et les lacunes en matière de gouvernance qui peuvent en découler.

Les responsables de la sécurité réévaluent les risques de sécurité à l'ère de l'IA

Gigamon, un leader de l'observabilité avancée, dévoile l’édition 2025 de son étude sur la sécurité du cloud hybride. Celle-ci révèle que les infrastructures de cloud hybride sont soumises à une pression croissante en raison de l'influence grandissante de l'intelligence artificielle (IA). L'étude annuelle, qui revient pour la troisième année consécutive, a été menée auprès de plus de 1 000 responsables IT et sécurité en France, en Allemagne, à Singapour, au Royaume-Uni, en Australie et aux États-Unis. Alors que les cybermenaces gagnent en ampleur et sont de plus en plus sophistiqués, les taux d'intrusion ont grimpé à 55 % au cours de l'année écoulée, soit une augmentation de 17 % en glissement annuel. Les attaques générées par l'IA apparaissant comme l'un des principaux moteurs de cette croissance.

Les équipes IT et sécurité atteignent un point de rupture, le coût économique de la cybercriminalité étant désormais estimé à 3 000 milliards de dollars à l'échelle mondiale selon le World Economic Forum. Les cybercriminels dotés d'IA étant de plus en plus agiles, les organisations sont contraintes d'utiliser des outils inefficaces et peu performants, des environnements cloud fragmentés tout en ayant accès à un niveau limité d’informations.

Les principales conclusions mettent en évidence la façon dont l'IA redéfinit les priorités en matière de sécurité du cloud hybride :

  • le rôle de l'IA dans la complexification des réseaux et l'accélération des risques est indéniable. L'étude révèle que 46 % des responsables IT et sécurité déclarent que la gestion des menaces générées par l'IA est désormais leur principale priorité en matière de sécurité. Une organisation sur 3 signale que les volumes de données réseau ont plus que doublé au cours des 2 dernières années en raison des workloads IA, tandis que près de la moitié des personnes interrogées (47 %) constatent une augmentation des attaques ciblant les déploiements de grands modèles de langage (LLM) de leur organisation. Plus de la moitié des personnes interrogées (58 %) affirment avoir constaté une augmentation des ransomwares alimentés par l'IA, contre 41 % en 2024. Des données qui soulignent la façon dont les cybercriminels exploitent l'IA pour devancer et contourner les défenses existantes ;
  • les failles mettent en évidence les compromis continus dans les domaines fondamentaux de la sécurité du cloud hybride. Neuf responsables IT et sécurité sur dix (91 %) admettent qu'ils doivent faire des compromis pour sécuriser et gérer leur infrastructure de cloud hybride. Les principaux défis à l'origine de ces compromis sont le manque de données fiables et pertinentes pour soutenir le déploiement sécurisé des workloads IA (46 %) et le manque de connaissance et de visibilité globales sur leurs environnements, y compris les mouvements latéraux dans le trafic est-ouest (47 %) ;
  • les risques liés au cloud public incitent à un rééquilibrage. Autrefois considéré comme un risque acceptable dans la course à l'expansion des opérations post-COVID, le cloud public fait aujourd'hui l'objet d'une attention de plus en plus importante. En effet, 70 % des responsables IT et sécurité considèrent que le cloud public représente un risque plus important que tout autre environnement. En conséquence, ils déclarent que leur organisation envisage activement de rapatrier des données du cloud public vers le cloud privé en raison de problèmes de sécurité. 54% sont réticents à utiliser l'IA dans des environnements de cloud public, citant notamment des craintes liées à la protection de la propriété intellectuelle ;
  • la visibilité est au cœur des préoccupations des responsables sécurité. Les cyberattaques deviennent de plus en plus sophistiquées. En revanche, les outils de sécurité existants montrent facilement leurs limites. Les organisations réorientent leurs priorités vers l'obtention d'une visibilité complète de leurs environnements considérée comme cruciale pour une détection et une réponse efficaces aux menaces. Plus de la moitié (55 %) des personnes interrogées n'ont pas confiance dans la capacité de leurs outils actuels à détecter les brèches. Le manque de visibilité cité comme étant le problème principal. En conséquence, 64 % des personnes interrogées déclarent que leur priorité absolue pour les 12 prochains mois est d'assurer une surveillance des menaces en temps réel grâce à une visibilité complète de toutes les données en mouvement.


Avec l'IA qui génère des volumes de trafic, des risques et une complexité sans précédent, près de neuf responsables de la sécurité et de l'informatique sur dix (89 %) citent l'observabilité avancée comme fondamentale pour sécuriser et gérer l'infrastructure de cloud hybride. Les dirigeants en prennent bonne note, puisque les conseils d'administration accordent de plus en plus d'importance à une visibilité complète de toutes les données en mouvement. En effet, 83 % d'entre eux confirment que l'observabilité avancée fait désormais l'objet de discussions au sein du conseil d'administration afin de mieux protéger les environnements de cloud hybride.

Conclusion

Les résultats de l'analyse de Cisco Talos mettent en évidence « une négligence généralisée des pratiques de sécurité fondamentales telles que le contrôle d'accès, l'authentification et l'isolation du réseau dans le déploiement des systèmes d'IA ».

À bien des égards, cela n'est pas sans rappeler les bases de données mal configurées ou exposées, auxquelles les acteurs malveillants peuvent facilement accéder pour voler des données qu'ils utiliseront dans le cadre d'attaques de phishing ou d'ingénierie sociale.

Source : Cisco Talos

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Wiz Research découvre une base de données DeepSeek exposée qui laisse échapper des informations sensibles, y compris l'historique des conversations, et comprend plus d'un million de lignes de flux de données

L'IA pousse 91 % des responsables de la sécurité à réévaluer les risques liés au cloud hybride, selon une étude de Gigamon

L'intelligence artificielle rend les menaces internes plus efficaces, et 53 % des organisations ont constaté une augmentation mesurable des incidents internes au cours de l'année écoulée
Vous avez lu gratuitement 894 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !