Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis
Dans le domaine militaire

Le , par Victor Alisson

30PARTAGES

5  0 
Le Département américain de la Défense (DoD) vient de publier cinq principes éthiques que l’armée américaine s’engage à observer dans l’utilisation de l’intelligence artificielle (IA). C’est le résultat d’une série de consultations ayant duré 15 mois avec des acteurs de l’industrie civile, le gouvernement, le monde académique et les citoyens américains. L’initiateur du projet qui a abouti à cet engagement, le secrétaire à la Défense du Defense Innovation Board, le Dr. Mark T. Esper, a placé cet effort en vue de la sauvegarde d’un « ordre mondial fondé sur des règles » dans le cadre des investissements massifs des États-Unis et de leurs alliés pour la maîtrise de l’IA au service de la sécurité nationale et internationale.

Le DoD associe l’adoption de ces principes éthiques aux efforts de l’administration Trump pour promouvoir les technologies d’IA qualifiées de « fiables ». Cela fait suite à la stratégie nationale américaine pour le leadership dans l’IA, l'American AI Initiative, mettant en avant les innovations en la matière tout en insistant sur la protection des libertés civiles, de la vie privée et des valeurs américaines.

Ces cinq principes éthiques tournent alors autour de quelques domaines majeurs :

  • la « responsabilité », engageant surtout celle du personnel du DoD dont les membres doivent s’efforcer d’exercer des niveaux appropriés de jugement dans le déploiement et l’utilisation de l’IA ;
  • « l’équitabilité » en minimisant les éventuels biais involontaires dans l’usage des technologies d’IA, de manière à réduire les risques de discrimination qui pourraient en découler ;
  • la « traçabilité » à travers une compréhension adéquate de la technologie, des processus et des méthodes opérationnelles relatifs à l’IA, ce qui implique de la transparence, de la vérifiabilité des sources de données, des démarches de conception et de la documentation ;
  • la « fiabilité » dans le sens d’une utilisation explicite et précise, de sûreté et d’assurance, de sécurité et d’efficacité des outils d’IA déployés, notamment via des tests à réaliser sur ceux-ci tout au long de leur cycle de vie ;
  • la « gouvernabilité », en s’efforçant de maîtriser les outils d’IA et leurs utilisations pour éviter les conséquences imprévues et en s’assurant de la capacité des utilisateurs à désactiver les systèmes correspondant à un comportement imprévu.



Désormais, ces principes seront appliqués par l’armée américaine que ce soit dans le cadre de combat ou hors combat. Ceux-ci devraient répondre aux nouveaux défis et risques éthiques soulevés par l’utilisation de l’IA. Le président de la "Defense Innovation Board", le Dr. Eric Schmidt, se félicite de cet engagement qui démontre au monde entier que « les États-Unis et le DoD sont attachés à l’éthique et joueront un rôle de leader en assurant que les démocraties adoptent la technologie émergente de manière responsable ».

Ce geste du Département de la défense apparaît alors comme une tentative de se démarquer des adversaires potentiels des États-Unis dans le domaine de la sécurité internationale. En effet, il ne faut pas oublier que, la semaine passée, l’Union européenne vient également d’adopter sa propre feuille de route pour l’IA et d’insister sur sa préoccupation quant à la question d’éthique à ce propos. D’ailleurs, le directeur du "Joint Artificial Intelligence Center" des États-Unis, le Lieutenant-Général Jack Shanahan, n’a pas caché son inquiétude concernant les problèmes de non-respect des droits de l’Homme et des normes internationales par la Russie et la Chine dans l’utilisation militaire de l’IA.

Source : Communiqué officiel du DoD

Et vous ?

Que pensez-vous de ces principes adoptés par les USA ?

Voir aussi :

Le Pentagone estime que la Chine a un avantage sur les USA en matière d'applications militaires de l'IA

Le Pentagone investit 2 milliards de dollars dans le développement de l'IA afin de financer des projets de recherche avancée de défense

Le projet d'IA de Google et le Pentagone était « directement lié » à un contrat de cloud de plusieurs milliards de dollars

IA : un guide éthique en développement chez Google pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone

Des employés de Google présentent leur démission pour protester contre la participation de l'entreprise à un projet en IA du Pentagone

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de palnap
Membre actif https://www.developpez.com
Le 02/03/2020 à 10:07
Une phrase avec "Etats Unis", "armée" et "éthique" c'est forcément un troll 😆
2  0 
Avatar de MRSizok
Membre actif https://www.developpez.com
Le 02/03/2020 à 9:39
Comment je m'attendais à mieux que des principes aussi souple. "l'équitabilité" va être très drôle.
1  0 
Avatar de JackIsJack
Membre confirmé https://www.developpez.com
Le 02/03/2020 à 13:16
La traçabilité dans les processus auto-apprenants... Voilà voilà... (...) Ah ! ils n'ont pas dit que ça devait être forcément compréhensible sous une quelconque contrainte de temps d'analyse/compétence... Ca se tient alors.
1  0 
Avatar de fodger
Membre actif https://www.developpez.com
Le 02/03/2020 à 15:18
j'ai ri.
0  0