IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google, Microsoft, Anthropic et OpenAI lancent un fonds de 10 millions de dollars pour la sécurité de l'IA
Afin de mener des recherches responsables dans ce domaine

Le , par Jade Emy

0PARTAGES

5  0 
Les fondateurs du Frontier Model Forum font un pas en avant pour s'assurer que la recherche sur l'IA est menée de la manière la plus responsable possible. Ils ont notamment lancé un fonds de sécurité pour l'IA d'une valeur de 10 millions de dollars et nommé le directeur exécutif du forum, qui sera désormais Chris Meserole.

Comme cela a été confirmé récemment, il s'agit de la première alerte importante émanant de ce puissant groupe de quatre, depuis la création du principal forum industriel en juillet de l'année dernière. En outre, d'autres rapports soulignent que Meserole a eu l'occasion de servir formellement en tant que chef de l'organisme lors d'une réunion tenue à la Brookings Institution, une société à but non lucratif de la capitale de l'État. Le Forum a indiqué que l'objectif de l'arrivée d'un nouveau directeur exécutif pour la première fois est de tirer parti de sa grande expérience et de se concentrer davantage sur des sujets tels que la gouvernance sûre et les technologies en expansion qui pourraient s'avérer utiles dans le cadre d'applications futures.

En outre, toute avancée majeure réalisée dans le monde de la technologie et de la recherche en matière d'IA permettrait de garantir que les choses restent sûres et sécurisées à tout moment, tout en restant sous le bon type d'observation humaine. De la même manière, cela permettrait d'identifier les meilleures pratiques selon les normes de l'industrie et donnerait lieu à des échanges de données précises entre ceux qui élaborent les politiques et ceux qui dirigent le secteur aujourd'hui.


Comme vous pouvez le constater, la sûreté et la sécurité sont une priorité absolue, tout comme l'utilisation de la technologie de l'IA dans les applications quotidiennes. Et cela n'est possible que lorsque les bonnes politiques sont en place et que l'intervention humaine appropriée est privilégiée. Depuis un certain temps déjà, OpenAI désigne ces modèles pionniers comme étant ceux qui ont la capacité de causer des dommages et qui représentent un risque majeur pour le public.

Comme l'a mentionné le géant de la technologie, ils représentent un grand pouvoir et une grande promesse pour le monde, mais nous ne pouvons réaliser leur grandeur avec une meilleure compréhension que lorsque nous savons comment les traiter de manière sûre tout en les évaluant correctement. C'est pourquoi, dans son premier discours en tant que directeur exécutif, Meserole a déclaré qu'il était honoré d'assumer ce rôle et de tirer le meilleur parti des défis qui l'attendent.

Le nouveau Fonds de sécurité, doté de 10 millions de dollars, est destiné à soutenir les chercheurs indépendants du monde universitaire, les entreprises de recherche et les jeunes pousses disséminées dans le monde entier. C'est un point sur lequel le quadruple président s'était personnellement engagé à apporter son aide au début de l'année à Washington. De même, l'établissement d'une base de référence définissant tous les termes et processus liés à l'IA dans l'industrie joue un rôle majeur.

La première mise à jour sur ce front a été publiée et a été baptisée AI Red Teaming, grâce à des ressources tirées d'études de cas d'entreprises technologiques de premier plan telles que Microsoft et même Google. Pour mieux comprendre ce qu'est réellement cette pratique, les responsables de la cybersécurité la décrivent comme une tâche dans laquelle les organisations font appel à des pirates éthiques et leur permettent d'infiltrer les systèmes du réseau. De cette manière, toutes les faiblesses en matière de sécurité sont examinées et corrigées avant que les mauvais acteurs n'entrent en jeu et ne procèdent à des changements.

On peut donc considérer qu'elle fonctionne comme une sonde pour tous les systèmes d'intelligence artificielle nécessaires en place afin que tous les dangers soient écartés de la meilleure manière possible.

Mise à jour du Frontier Model Forum

Anthropic, Google, Microsoft et OpenAI annoncent aujourd'hui la sélection de Chris Meserole comme premier directeur exécutif du Frontier Model Forum, ainsi que la création d'un nouveau fonds de sécurité de l'IA, une initiative de plus de 10 millions de dollars visant à promouvoir la recherche dans le domaine de la sécurité de l'IA. Le Frontier Model Forum, un organisme industriel visant à assurer un développement sûr et responsable des modèles d'IA d'avant-garde, publie également la première mise à jour de son groupe de travail technique sur le red teaming afin de partager l'expertise de l'industrie avec un public plus large, alors que le Forum élargit la conversation sur les approches responsables de la gouvernance de l'IA.

Directeur exécutif

Chris Meserole arrive au Frontier Model Forum avec une grande expertise en matière de politique technologique, ayant beaucoup travaillé sur la gouvernance et la sécurité des technologies émergentes et de leurs applications futures. Plus récemment, il a été directeur de l'initiative sur l'intelligence artificielle et les technologies émergentes à la Brookings Institution.

Dans ses nouvelles fonctions, Meserole sera chargé d'aider le Forum à remplir sa mission, à savoir :
  • Faire progresser la recherche sur la sécurité de l'IA afin de promouvoir un développement responsable des modèles d'avant-garde et de minimiser les risques potentiels.
  • Identifier les meilleures pratiques en matière de sécurité pour les modèles d'avant-garde.
  • Partager les connaissances avec les décideurs politiques, les universitaires, la société civile et d'autres acteurs pour faire progresser le développement responsable de l'IA.
  • Soutenir les efforts visant à tirer parti de l'IA pour relever les plus grands défis de la société.


"Les modèles d'IA les plus puissants sont extrêmement prometteurs pour la société, mais pour réaliser leur potentiel, nous devons mieux comprendre comment les développer et les évaluer en toute sécurité. Je me réjouis de relever ce défi avec le Frontier Model Forum."
Chris Meserole, directeur exécutif du Frontier Model Forum


Fonds pour la sécurité de l'IA

Au cours de l'année écoulée, l'industrie a réalisé des avancées significatives dans les capacités de l'IA. Ces progrès s'étant accélérés, de nouvelles recherches universitaires sur la sécurité de l'IA sont nécessaires. Pour combler cette lacune, le Forum et ses partenaires philanthropiques créent un nouveau fonds pour la sécurité de l'IA, qui soutiendra des chercheurs indépendants du monde entier affiliés à des établissements universitaires, à des instituts de recherche et à des startups. L'engagement financier initial du Fonds pour la sécurité de l'IA provient d'Anthropic, de Google, de Microsoft et d'OpenAI, ainsi que de la générosité de nos partenaires philanthropiques, la Fondation Patrick J. McGovern, la Fondation David et Lucile Packard. Ensemble, ils représentent un financement initial de plus de 10 millions de dollars. Nous attendons des contributions supplémentaires de la part d'autres partenaires.

Au début de l'année, les membres du Forum ont signé des engagements volontaires en matière d'IA à la Maison Blanche, qui comprenaient une promesse de faciliter la découverte et le signalement par des tiers des vulnérabilités de nos systèmes d'IA. Le Forum considère le Fonds pour la sécurité de l'IA comme un élément important du respect de cet engagement en fournissant à la communauté externe des fonds pour mieux évaluer et comprendre les systèmes d'avant-garde. Le débat mondial sur la sécurité de l'IA et la base de connaissances générale sur l'IA bénéficieront d'un plus grand nombre de voix et de perspectives.

L'objectif principal du fonds sera de soutenir le développement de nouveaux modèles d'évaluation et de techniques d'équipe rouge pour les modèles d'IA afin d'aider à développer et à tester des techniques d'évaluation pour les capacités potentiellement dangereuses des systèmes d'avant-garde. Nous pensons qu'un financement accru dans ce domaine permettra d'améliorer les normes de sécurité et de sûreté et de mieux comprendre les mesures d'atténuation et de contrôle dont l'industrie, les gouvernements et la société civile ont besoin pour relever les défis posés par les systèmes d'IA.

Le Fonds lancera un appel à propositions dans les prochains mois. Le Meridian Institute administrera le fonds et son travail sera soutenu par un comité consultatif composé d'experts externes indépendants, d'experts des entreprises d'IA et de personnes ayant une expérience dans l'octroi de subventions.

Prochaines étapes

Au cours des prochains mois, le Frontier Model Forum mettra en place un conseil consultatif qui l'aidera à orienter sa stratégie et ses priorités, et qui représentera un éventail de perspectives et d'expertises. Les prochaines publications et mises à jour, y compris celles concernant les nouveaux membres, proviendront directement du Frontier Model Forum.

Le Fonds pour la sécurité de l'IA lancera son premier appel à propositions dans les mois à venir, et les subventions devraient être accordées peu après. Le Frontier Model Forum publiera également des conclusions techniques supplémentaires dès qu'elles seront disponibles. Le Forum se réjouit de travailler avec Meserole et d'approfondir ses engagements avec la communauté de recherche élargie, y compris le Partenariat sur l'IA, MLCommons, et d'autres ONG, gouvernements et organisations multinationales de premier plan, afin d'aider à réaliser les avantages de l'IA tout en promouvant son développement et son utilisation en toute sécurité.
Source : OpenAI

Et vous ?

Quel est votre avis sur cette collaboration ?

Voir aussi :

Des entreprises de premier plan telles que Google, Microsoft et OpenAI forment un groupe visant à contrôler l'IA, les critiques allèguent que les entreprises cherchent à éviter la réglementation

Google, Meta, OpenAI et d'autres promettent de se conformer au cadre de sécurité de l'IA de la Maison Blanche, des engagements volontaires qui sont déjà critiqués pour l'absence de mesures punitives

Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 28/10/2023 à 2:23
Comme vous pouvez le constater, la sûreté et la sécurité sont une priorité absolue
10 millions, ça représente quel pourcentage du montant total investi par Google, Microsoft, Anthropic et OpenAI dans le développement/lobbying ?
En janvier y'a eu un investissement de Microsoft qui a été hyper médiatisé. Cet unique investissement, c'était 10 Milliards. Donc leurs fameux 10 millions, j'imagine que ça représente quelque chose entre 0.00001% et 0.1% du budget total. Waouh la priorité ! Digne de l'ordonnanceur de Windows .

Le nouveau Fonds de sécurité, doté de 10 millions de dollars, est destiné à soutenir les chercheurs indépendants du monde universitaire
"Hé Denis, t'as envie de t'occuper de la sécu ?"
"Non, mais y'en a peut-être d'autres qui voudront bien le faire pour nous."
0  0