IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta lance le projet Purple Llama pour les développeurs d'IA afin de tester les risques de sécurité dans les modèles
Et de renforcer la sécurité et de bloquer les contenus inappropriés

Le , par Jade Emy

206PARTAGES

4  0 
Meta AI a annoncé le lancement de Purple Llama, une initiative visant à promouvoir le développement et l'utilisation responsables de modèles d'IA générative. Ce projet répond à la popularité croissante des modèles d'IA open-source, avec plus de 100 millions de téléchargements des seuls modèles Llama.

Purple Llama s'inspire du concept de cybersécurité "purple teaming", qui combine des approches offensives et défensives pour atténuer les risques. Il propose des outils et des évaluations dans deux domaines clés : la cybersécurité et les garanties d'entrée et de sortie.

En ce qui concerne le risque de cybersécurité du LLM, il est important de disposer d'un moyen de quantifier le risque de piratage d'un modèle d'IA. Les métriques peuvent y contribuer en fournissant un score qui indique la probabilité d'un piratage réussi. En outre, les développeurs peuvent utiliser des outils pour évaluer la fréquence des suggestions de code non sécurisé. Cela peut les aider à identifier et à corriger les problèmes dans leurs modèles d'IA que les pirates pourraient exploiter.

Il existe des outils de protection contre l'utilisation malveillante des modèles d'IA. Ces outils peuvent aider à empêcher les pirates de voler ou d'utiliser des données pour diffuser des fausses nouvelles. Les organisations peuvent mettre en œuvre ces outils pour protéger leurs modèles d'IA et éviter qu'ils ne soient utilisés à des fins malveillantes.

Qu'est-ce que les mesures de garanties des entrées/sorties ?

Les garanties d'entrée/sortie sont des mesures de sécurité mises en œuvre pour protéger les données contre l'accès, la manipulation ou la divulgation non autorisés au point d'entrée et de sortie d'un système.

Purple Llama travaille actuellement sur plusieurs projets. L'un d'entre eux est Llama Guard, un outil open-source destiné à aider les développeurs à identifier et à éviter de créer des contenus nuisibles. En outre, l'entreprise a créé des directives de filtrage de contenu que les développeurs peuvent suivre pour s'assurer que leurs modèles d'intelligence artificielle ne génèrent pas de contenu préjudiciable.

Meta a révélé son engagement en faveur d'un écosystème ouvert pour le développement de l'IA, ce qui signifie qu'elle souhaite faciliter le développement et l'utilisation de modèles d'IA pour tous. Elle travaille avec plusieurs partenaires sur ce projet, notamment AI Alliance, AMD, Google Cloud, Hugging Face (jetons Meta AI récemment exposés), IBM, Microsoft et NVIDIA.


Purple Llama : Vers une confiance et une sécurité ouvertes dans le nouveau monde de l'IA générative

L'IA générative a suscité une nouvelle vague d'innovation comme jamais vue auparavant. Grâce à elle, on a la possibilité de converser avec des IA conversationnelles, de générer des images réalistes et de résumer avec précision de vastes corpus de documents, le tout à partir de simples invites. Avec plus de 100 millions de téléchargements de modèles Llama à ce jour, une grande partie de cette innovation est alimentée par des modèles ouverts.

La collaboration en matière de sécurité renforcera la confiance dans les développeurs à l'origine de cette nouvelle vague d'innovation et nécessitera des recherches et des contributions supplémentaires sur l'IA responsable. Les personnes qui construisent les systèmes d'IA ne peuvent pas relever les défis de l'IA dans le vide, c'est pourquoi il faut uniformiser les règles du jeu et créer un centre de masse pour la confiance et la sécurité ouvertes.

Avec le lancement de Purple Llama - un projet parapluie qui, au fil du temps, rassemblera des outils et des évaluations pour aider la communauté à construire de manière responsable avec des modèles d'IA générative ouverte. La première version comprendra des outils et des évaluations pour la cybersécurité et les garanties d'entrée/sortie, et d'autres outils seront proposés dans un avenir proche.

Les composants du projet Purple Llama feront l'objet d'une licence permissive, permettant à la fois la recherche et l'utilisation commerciale. Il s'agit d'une étape importante pour favoriser la collaboration entre les communautés et normaliser le développement et l'utilisation d'outils de confiance et de sécurité pour le développement de l'IA générative...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !