IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft admet que l'IA ne pourra jamais être totalement sécurisée : les modèles amplifient les risques de sécurité existants et en créent de nouveaux
Selon des chercheurs qui ont testé plus de 100 produits

Le , par Stéphane le calme

242PARTAGES

9  0 
Récemment, des chercheurs de Microsoft ont fait une déclaration frappante : l’intelligence artificielle (IA) ne pourra jamais être rendue totalement sécurisée. Cette affirmation, qui s’inscrit dans le contexte d’une évaluation critique des produits IA de l’entreprise elle-même, soulève des questions fondamentales sur les défis, les limites et les responsabilités des acteurs majeurs de ce domaine technologique en pleine expansion. Revenons sur cette déclaration et analysons ses implications, tant pour le secteur technologique que pour la société.

L’origine de la déclaration : le poids de l’autocritique

Microsoft, l’un des géants mondiaux de la technologie, est à l’avant-garde du développement et de la commercialisation de l’IA. Des produits comme Azure AI, OpenAI (en partenariat avec ChatGPT) ou encore Copilot pour Office 365 témoignent de son investissement massif dans ce domaine. Cependant, en soumettant ses propres systèmes à des tests approfondis, les chercheurs ont découvert des vulnérabilités qui mettent en lumière les défis de sécurisation de l’IA.

Cette démarche autocritique peut être saluée pour sa transparence et son honnêteté. Dans un secteur souvent dominé par des discours marketing sur la fiabilité et la performance des solutions IA, admettre que la sécurité parfaite est une chimère est une approche rare et audacieuse. Toutefois, cette déclaration soulève des interrogations sur la manière dont les entreprises technologiques envisagent leur rôle vis-à-vis des risques inhérents à l’IA.

En effet, si Microsoft reconnaît l’impossibilité d’une sécurité parfaite, cette déclaration pourrait aussi être perçue comme une tentative de diluer sa responsabilité. Après tout, les entreprises comme Microsoft bénéficient de revenus colossaux grâce à l’IA, et il est légitime d’attendre d’elles un engagement significatif pour minimiser les risques.

L’aveu de l’imperfection ne devrait pas devenir une excuse pour ne pas investir suffisamment dans la sécurisation. Les entreprises doivent non seulement améliorer la robustesse technique de leurs systèmes, mais également adopter une posture proactive en termes de réglementation, d’éthique et de protection des utilisateurs.

Les leçons tirées de l'examen de sécurité de plus de 100 produits d'IA générative

Les experts de Microsoft qui ont examiné la sécurité de plus de 100 produits d'IA générative du géant du logiciel sont repartis avec un message qui donne à réfléchir : Les modèles amplifient les risques de sécurité existants et en créent de nouveaux.

Les 26 auteurs ont fait remarquer que « le travail de sécurisation des systèmes d'IA ne sera jamais achevé » dans un document intitulé Leçons tirées du red-teaming de 100 produits d'IA générative.

C'est la dernière des huit leçons proposées dans l'article, bien qu'elle ne soit pas entièrement apocalyptique. Les auteurs, dont Mark Russinovich, directeur technique d'Azure, affirment qu'en travaillant davantage, il est possible d'augmenter le coût des attaques contre les systèmes d'IA, comme cela s'est déjà produit pour d'autres risques de sécurité informatique, grâce à des tactiques de défense en profondeur et à des principes de sécurité par conception.

« Comprendre ce que le système peut faire et où il est appliqué »

Les Microsofties (le nom de baptême des employés de Microsoft) suggèrent qu'il y a beaucoup de travail à faire. La première leçon à retenir est de « comprendre ce que le système peut faire et où il est appliqué ».

Ce conseil insipide fait allusion au fait que les modèles se comportent différemment selon leur conception et leur application, et qu'il faut donc bien comprendre leurs capacités pour mettre en œuvre des défenses efficaces.

« En testant la série Phi-3 de modèles de langage, par exemple, nous avons constaté que les modèles plus grands étaient généralement plus aptes à respecter les instructions de l'utilisateur, ce qui est une capacité essentielle qui rend les modèles plus utiles », affirment les auteurs. C'est une bonne nouvelle pour les utilisateurs, mais une mauvaise pour les défenseurs, car les modèles sont plus susceptibles de suivre des instructions malveillantes.

Les auteurs conseillent également d'examiner les implications en matière de sécurité des capacités d'un modèle dans le contexte de son objectif. Pour comprendre pourquoi, il suffit de considérer qu'une attaque contre un LLM conçu pour aider à la création littéraire ne risque pas de créer un risque organisationnel, mais qu'une action adverse dirigée contre un LLM qui résume les antécédents médicaux des patients pourrait produire de nombreux résultats indésirables.

« Il n'est pas nécessaire de calculer des gradients pour casser un système d'intelligence artificielle »

La deuxième leçon est la suivante : « Il n'est pas nécessaire de calculer des gradients pour casser un système d'intelligence artificielle ». Les attaques basées sur le gradient fonctionnent en testant des jetons adverses lorsque les paramètres et l'architecture du modèle sont disponibles (ce qui est le cas pour les modèles open source, mais pas pour les modèles commerciaux propriétaires).

L'objectif de ces attaques est de faire en sorte qu'un modèle produise une réponse inexacte en modifiant légèrement les données d'entrée, ce qui affecte la fonction de perte du gradient utilisée dans l'apprentissage automatique.

Mais comme le font remarquer les membres de l'équipe rouge de Microsoft, les attaques basées sur...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 17/01/2025 à 19:45
La solution est de coupler l'IA gen à une IA comme celle de Thales, CortAIx, vérifiable, peu gourmande en ressources comparativement, sécurisée de bout en bout, fiable et vous avez l'embryon de l'IA générale qui demandera d'autres percées pour rendre l'IA intelligente et peu gourmande en ressources car un tel couplage testé l'hiver dernier donne des résultats tout à fait probant par exemple appliqué à la fusion on peut stabiliser le plasma et produire de l'énergie. Expérience réalisée début avril par les chinois.

https://www.thalesgroup.com/fr/monde/securite/press_release/thales-accelere-lia-defense
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 21/01/2025 à 15:49
Citation Envoyé par marsupial Voir le message
La solution est de coupler l'IA gen à une IA comme celle de Thales, CortAIx, vérifiable, peu gourmande en ressources comparativement, sécurisée de bout en bout, fiable et vous avez l'embryon de l'IA générale qui demandera d'autres percées pour rendre l'IA intelligente et peu gourmande en ressources car un tel couplage testé l'hiver dernier donne des résultats tout à fait probant par exemple appliqué à la fusion on peut stabiliser le plasma et produire de l'énergie. Expérience réalisée début avril par les chinois.
Merci pour l'info je ne savais pas ! Cocorico !
0  0 
Avatar de Eye_Py_Ros
Membre régulier https://www.developpez.com
Le 21/01/2025 à 15:55
La solution est de coupler l'IA gen à une IA comme celle de Thales, CortAIx, vérifiable, peu gourmande en ressources comparativement, sécurisée de bout en bout, fiable et vous avez l'embryon de l'IA générale qui demandera d'autres percées pour rendre l'IA intelligente et peu gourmande en ressources car un tel couplage testé l'hiver dernier donne des résultats tout à fait probant par exemple appliqué à la fusion on peut stabiliser le plasma et produire de l'énergie. Expérience réalisée début avril par les chinois.
Je ne sais pas trop comment le formuler.
Les réseaux de neurones je l'ai toujours dit sont des capteurs experts.
Tant qu'ils sont implémentés dans l'analyse de donnée, l'extraction de feature. Tant que l'on connaît leur application, on peut avoir confiance en leur fonctionnement.
C'est lors de l'exploitation de la donnée. La manière de créer l'outil qui fait la différence.
Soit-on à un outil obscur qui "guillotine" les gens sans connaître la raison en déclenchant des process.
Soit l'outil exprime une analyse sur lequel l'humain peut se baser pour nourrir sa réflexion.

Les "ia" génératrices sont indéterministes, pipotron 3000. Aucune confiance ne peut être accordée a son résultat, jamais.
l'IA est très douée pour l'identification de paterne et l'extraction en base. Elle manipule les paternes pour les faire matcher. Concernant les images ont comprend tous l'identification d'un chat. En termes de vocabulaire humain, on ne comprend pas encore assez bien la comparaison.

Le seul moyen d'améliorer la sécurité est de reboucler la sortie sur un agent d'évaluation de la réponse.
Mais dans tous les cas, ce ne sera jamais 100% suffisant.
Une IA générale ne sera jamais omnipotente du contexte planétaire.
Donc ne pourront jamais prendre de décision 100% safe pour tous. Ce sont les limites de ce que l'on appelle le bien et le mal philosophiquement parlant et comment on implémente ça dans une machine.
Qui peut jouer à dieux quand aux décisions pouvant impacter des populations entières ?

Comment peut-on expliquer que la décision proposée par une IA est dans un contexte limité et maîtrisé ?
C'est le seul moyen de rendre safe une IA.
En commençant par éduquer l'utilisateur de la responsabilité de la manipulation de l'outil.
Un marteau, ça sert à planter des clous, on ne le laisse pas sur le rebord du balcon au risque de tomber sur les passants.
Un outil qui crache une réponse, ça s'évalue. On n’applique pas quelque chose que l'on n’est pas capable d'expliquer.

L'IA générale n'existera jamais, car limitée par la connaissance humaine sur l'ensemble des sujets à sa disposition. L'IA générale ne créer pas de connaissance, elle n'a pas d'armée de bot expérimentant jour et nuit pour évaluer un résultat (contrairement à aperture science).

L'IA adaptative peut être, la méga-intelligence jamais. Il faudrait un temps à la limite de l'infinie avec une quantité quasi infinie d'énergie pour atteindre ce stade.
Toute l'intelligence et la connaissance de l'univers jamais produit revient à calculer l'univers, quelle proportion peut-on compresser dans une boîte métallique pour une quantité d'énergie donnée ?
Je laisse les mathématiciens nous sortir la formule.
0  0