Jeudi dernier, le lieutenant-général Richard G. Moore Jr., chef d'état-major adjoint de l'armée de l'air des États-Unis pour les plans et les programmes, s'est exprimé sur la manière dont le ministère américain de la Défense (DOD) envisage la guerre autonome, c'est-à-dire une guerre impliquant les systèmes d'armes létales autonomes. Moore a expliqué qu'il s'agit d'une discussion très importante qui se tient aux "plus hauts niveaux" du DOD, mais a également ajouté : « l'avenir de l'IA dans la guerre dépend de ceux qui respectent les règles de la guerre et ceux qui ne les respectent pas. Certaines sociétés ont des fondements très différents des nôtres ».
À ce propos, le général a déclaré que l'approche des États-Unis en matière d'IA était plus éthique que celle de leurs adversaires parce qu'il s'agit d'une "société judéo-chrétienne". « Quelles que soient vos croyances, notre société est une société judéo-chrétienne et nous avons une boussole morale, mais ce n'est pas le cas de tout le monde. Ce n'est pas le cas de tout le monde. Et il y a ceux qui sont prêts à aller jusqu'au bout, quels que soient les moyens employés », a déclaré Moore. Il n'a pas cité un pays spécifique, mais les États-Unis critiquent régulièrement l'approche de la Chine en matière d'IA. Ils la considèrent comme leur principal adversaire.
Les commentaires de Moore ont suscité de vives critiques dans la communauté, y compris de l'indignation chez certaines personnes. Ils ont attiré l'attention d'experts qui affirment que "des personnes issues d'un large éventail de traditions religieuses et éthiques peuvent travailler à la résolution des dilemmes posés par l'IA". « "Plus éthique" suggère que seules ses croyances [judéo-chrétiennes] sont supérieures. Ce type ne devrait pas occuper ce poste », a écrit un critique. Un autre affirme : « il vient de priver de leur droit de vote tous les membres du service qui ne sont pas judéo-chrétiens. Une mauvaise représentation du Pentagone et des États-Unis ».
Les propos du général Moore ont également rouvert les discussions sur le sens même du terme "judéo-chrétien". Pour certains, cette doctrine n'existe tout simplement pas et constitue une invention. Par ailleurs, selon certaines sources, le DOD a adopté une politique en matière de liberté religieuse, reconnaissant que les militaires ont le droit d'observer les principes de leur religion, ou de n'observer aucune religion. Cette politique autoriserait largement le personnel à exprimer ses croyances sincères tant que ces actions n'ont pas un impact négatif sur la préparation militaire, la cohésion de l'unité, le bon ordre et la discipline, ou la santé et la sécurité.
Dans une déclaration envoyée plus tard par courriel au Washington Post, le général Moore aurait déclaré que si l'éthique de l'IA n'était pas l'apanage des États-Unis, il était peu probable que ses adversaires se basent sur les mêmes valeurs. « Le fondement de mes commentaires était d'expliquer que l'armée de l'air ne permettra pas à l'IA de prendre des mesures ni de prendre des mesures sur la base d'informations fournies par l'IA, à moins que nous puissions garantir que ces informations sont conformes à nos valeurs. Bien que cette position ne soit pas unique à notre société, elle ne devrait pas être celle d'un adversaire potentiel », a déclaré Moore.
Le général Moore n'a pas précisé à qui il faisait référence en parlant des adversaires des États-Unis, mais une grande partie de l'industrie de la défense américaine s'est concentrée sur les progrès rapides du secteur chinois de l'IA. Des experts américains ont déclaré ce mois-ci à une sous-commission des forces armées de la Chambre des représentants que les États-Unis risquaient de se laisser distancer par la Chine s'ils n'investissaient pas beaucoup plus dans l'IA militaire. Éric Schmidt, ancien PDG de Google, a également mis en garde le DOD. Toutefois, selon les critiques, les valeurs morales varient d'une culture à une autre et ne sauraient donc être comparées.
« L'approche de l'armée chinoise en matière d'éthique de l'IA est "différente dans ses racines" de celle des États-Unis, mais elle reste attentive aux dilemmes éthiques. Comparer les politiques éthiques des États-Unis et de la Chine revient à comparer des pommes et des oranges, car leur histoire est différente. Les textes sur l'éthique aux États-Unis s'inspirent de penseurs tels qu'Augustin d'Hippone. Les fonctionnaires chinois se réfèrent au marxisme et au léninisme, et le [parti communiste] guide l'éthique », note Mark Metcalf, conférencier à l'université de Virginie et officier de la marine américaine à la retraite. Selon lui, il s'agit d'une approche "très théiste".
Metcalf précise en outre que cela ne signifie pas pour autant que la Chine ignore les dilemmes éthiques lorsqu'elle envisage l'IA militaire. « L'Armée populaire de libération de la Chine souhaite utiliser la technologie sans porter atteinte au contrôle du Parti communiste. Les objectifs politiques semblent guider les politiques de la Chine. Une fois que le contrôle d'un système d'armement est confié à un algorithme, dans le pire des cas, le parti en perd le contrôle », a écrit Metcalf dans un article analysant les déclarations publiques sur l'approche de la Chine en matière d'utilisation militaire de l'IA. Moore a également été critiqué en dehors des États-Unis.
Selon Alex John London, professeur d'éthique et de technologies informatiques à l'université Carnegie Mellon, les questions éthiques soulevées par l'IA, y compris en temps de guerre, sont communes à de nombreuses traditions religieuses et philosophiques. « Il y a beaucoup de travaux dans le domaine de l'éthique qui ne sont liés à aucune perspective religieuse et qui se concentrent sur l'importance de la valorisation du bien-être humain, de l'autonomie humaine et des systèmes sociaux justes et équitables. Les préoccupations reflétées dans l'éthique de l'IA sont plus larges que n'importe quelle tradition », a déclaré le professeur John London.
Enfin, les commentaires de Moore interviennent alors que des représentants du gouvernement américain affirment qu'ils travaillent à l'élaboration de lignes directrices concernant l'utilisation de l'IA dans la guerre. Le département d'État a publié en février une déclaration sur "l'utilisation militaire responsable de l'IA et de l'autonomie". Le DOD a adopté des normes pour l'utilisation éthique de l'IA en 2020 et continue d'appeler à une utilisation éthique et responsable de l'IA dans le domaine militaire.
Source : billet de blogue
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations du général américain Richard G. Moore Jr. ?
Sont-elles fondées ? L'éthique de l'IA dépend-elle d'une doctrine religieuse ?
Selon vous, peut-on parvenir à un consensus sur l'IA éthique ? Pourquoi ?
Comment peut-on développer une IA éthique ? Sur quelles valeurs doit-elle être fondée ?
Voir aussi
La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA, elle prendra également l'avis des PDG des entreprises d'IA
L'Intelligence artificielle chinoise est soumise pour la première fois à des directives éthiques, conformément à l'objectif de Pékin de maîtriser l'influence des grandes entreprises technologiques
L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur
Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire. Les critiques notent que cette déclaration n'est pas juridiquement contraignante