IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman d'OpenAI et d'autres leaders technologiques rejoignent le Conseil fédéral de sécurité de l'IA
Donc les personnes qui créent la technologie seront celles qui la gouverneront, pardon ?

Le , par Anthony

6PARTAGES

6  0 
Sam Altman, PDG d'OpenAI, Satya Nadella, PDG de Microsoft, et Sundar Pichai, PDG d'Alphabet, rejoindront le Conseil de sécurité et de sûreté de l'intelligence artificielle du gouvernement, selon le Wall Street Journal. Jensen Huang de Nvidia, Kathy Warden de Northrop Grumman et Ed Bastian de Delta, ainsi que d'autres dirigeants des secteurs de la technologie et de l'IA, se joindront également à eux.

Le conseil de l'IA travaillera avec le ministère de la Sécurité intérieure et lui fournira des conseils sur la manière de déployer l'IA en toute sécurité dans les infrastructures critiques du pays. Il est également chargé de fournir des recommandations aux opérateurs de réseaux électriques, aux fournisseurs de services de transport et aux usines sur la manière de protéger leurs systèmes contre les menaces potentielles qui peuvent être causées par les progrès technologiques.


L'année dernière, l'administration Biden a ordonné la création d'un conseil de sécurité de l'IA dans le cadre d'un vaste décret visant à réglementer le développement de l'IA. Le site web de Homeland Security indique que le conseil « comprend des experts en IA du secteur privé et du gouvernement qui conseillent le secrétaire et la communauté des infrastructures critiques ».

Le secrétaire à la sécurité intérieure, Alejandro Mayorkas, a déclaré que l'utilisation de l'IA dans les infrastructures critiques peut améliorer considérablement la prestation de services - par exemple, elle peut accélérer le diagnostic des maladies ou détecter rapidement les anomalies dans les centrales électriques - mais qu'elle s'accompagne de risques importants que l'agence espère minimiser avec l'aide de l'administration actuelle.

Cela dit, on peut se demander si ces leaders de la technologie de l'IA peuvent fournir des conseils qui ne sont pas principalement destinés à servir leurs propres intérêts et ceux de leurs entreprises. Après tout, leur travail consiste à faire progresser les technologies de l'IA et à promouvoir leur utilisation, tandis que la gouvernance doit veiller à ce que les systèmes d'infrastructure critiques utilisent l'IA de manière responsable.

Toutefois, M. Mayorkas semble convaincu qu'ils feront bien leur travail, car les leaders technologiques « comprennent la mission de ce conseil » et que cette mission « n'est pas axée sur le développement commercial ».

Source : The Wall Street Journal

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous que l'intégration des leaders technologiques dans le Conseil de sécurité et de sûreté de l'IA est une décision pertinente et cohérente ? Quelles pourraient-être les conséquences de cette initiative pour le futur de l'IA, selon vous ?

Voir aussi :

Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

Google, Microsoft, Facebook, IBM et Amazon s'allient pour promouvoir et faire avancer les discussions sur l'IA, un conseil de sécurité de l'IA ?

Une erreur dans cette actualité ? Signalez-nous-la !