IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Maison Blanche met les hackers au défi de casser les meilleurs modèles d'IA,
Lors de la conférence DEF CON 31

Le , par Bruno

162PARTAGES

4  0 
La Maison Blanche a annoncé le 4 mai une collaboration entre les principaux développeurs d'IA qui a surpris plus d’un, dont OpenAI, Google, Antrhopic, Hugging Face, Microsoft, Nvidia et Stability AI, pour participer à une évaluation publique de leurs systèmes d'IA générative lors de DEF CON 31, une convention de hackers qui aura lieu à Las Vegas en août. L'événement sera organisé par AI Village, une communauté de hackers de l'IA.

L'IA est l'une des technologies les plus puissantes de notre époque, mais pour saisir les opportunités qu'elle présente, nous devons d'abord atténuer ses risques. Le président Biden a clairement indiqué qu'en matière d'IA, nous devons placer les personnes et les communautés au centre en soutenant une innovation responsable qui sert le bien public, tout en protégeant notre société, notre sécurité et notre économie. Cela signifie notamment que les entreprises ont la responsabilité fondamentale de s'assurer que leurs produits sont sûrs avant de les déployer ou de les rendre publics.


L’objectif de l’événement est de tester les limites de ces nouveaux modèles d’IA génératifs, tels que les grands modèles de langage (LLM), qui sont utilisés pour accélérer les tâches d’écriture et de communication, mais qui présentent également des risques inhérents, tels que les confabulations, les évasions et les biais. La Maison Blanche soutient cette initiative qui s’inscrit dans le cadre de la Déclaration des droits de l’IA du président Biden et du Cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology.

Selon les organisateurs, il s’agira du « plus grand exercice de red teaming jamais réalisé pour un groupe de modèles d’IA ». Des milliers de personnes participeront à l’évaluation publique des modèles d’IA, qui utilisera une plateforme d’évaluation développée par Scale AI. Le « red teaming » est un processus par lequel des experts en sécurité tentent de trouver des vulnérabilités ou des failles dans les systèmes d’une organisation pour améliorer la sécurité et la résilience globales. Les LLM se sont révélés particulièrement difficiles à sécuriser en partie à cause d’une technique appelée "injection de prompt", qui peut détourner un modèle de langage pour lui faire effectuer des actions non voulues par son créateur.

Aujourd'hui, l'administration Biden-Harris annonce de nouvelles mesures visant à promouvoir l'innovation américaine responsable dans le domaine de l'intelligence artificielle (IA) et à protéger les droits et la sécurité des personnes. Ces mesures s'appuient sur les solides antécédents de l'administration en matière de leadership pour garantir que la technologie améliore la vie du peuple américain, et ouvrent de nouvelles perspectives dans les efforts continus du gouvernement fédéral pour promouvoir une approche cohérente et globale des risques et des opportunités liées à l'IA.

Le vice-président Harris et de hauts responsables de l'administration rencontreront les PDG de quatre entreprises américaines à la pointe de l'innovation en matière d'IA - Alphabet, Anthropic, Microsoft et OpenAI - pour souligner cette responsabilité et insister sur l'importance d'une innovation responsable, digne de confiance et éthique, assortie de garanties qui atténuent les risques et les préjudices potentiels pour les individus et notre société. Cette réunion s'inscrit dans le cadre d'un effort plus large et continu de dialogue avec les défenseurs, les entreprises, les chercheurs, les organisations de défense des droits civils, les organisations à but non lucratif, les communautés, les partenaires internationaux et d'autres parties prenantes sur les questions essentielles liées à l'IA.

Depuis l'année dernière, les grands modèles de langage (LLM) tels que ChatGPT sont devenus un moyen populaire d'accélérer les tâches d'écriture et de communication, mais les responsables reconnaissent qu'ils comportent également des risques inhérents. Les pasteurs ont utilisé ChatGPT afin de rédiger des sermons, mais certains prêtres affirment que les ordinateurs ne reproduisent pas la passion d'une véritable prédication. « Une nouvelle aussi bouleversante doit être délivrée par un humain, en personne », a déclaré un prêtre. Des questions telles que les confabulations, les violations de prison et les préjugés posent des problèmes aux professionnels de la sécurité et au public. C'est pourquoi le Bureau de la science, de la technologie et de la politique de la Maison Blanche soutient l'idée de pousser ces nouveaux modèles d'IA générative jusqu'à leurs limites.

Les annonces comprennent :

  • de nouveaux investissements pour...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !