Ces dernières années, les progrès de l'intelligence artificielle (IA) s'étant accélérés, presque toutes les grandes puissances se sont engagées à développer des capacités d'IA avancées et à intégrer efficacement l'IA dans leurs forces armées. Pourtant, aucune n'a poursuivi ces efforts avec autant de détermination que la Chine et les États-Unis.
Les États-Unis ont lancé une initiative visant à promouvoir la coopération internationale sur l'utilisation responsable de l'intelligence artificielle et des armes autonomes par les militaires, cherchant à imposer l'ordre sur une technologie émergente qui a le potentiel de changer la façon dont la guerre est menée.
La Commission de sécurité nationale américaine sur l'intelligence artificielle a conclu dans son rapport final de l'année dernière que « même si l'IA sera omniprésente dans tous les domaines, les volumes élevés de données associés aux domaines de l'espace, du cyberespace et des opérations d'information font que les cas d'utilisation dans ces domaines sont particulièrement bien adaptés à l'intégration prioritaire d'applications basées sur l'IA dans les wargames, les exercices et les expérimentations ».
« En tant que technologie en évolution rapide, nous avons l'obligation de créer des normes fortes de comportement responsable concernant les utilisations militaires de l'IA et d'une manière qui garde à l'esprit que les applications de l'IA par les militaires vont sans aucun doute changer dans les années à venir », a déclaré Bonnie Jenkins, sous-secrétaire du Département d'État pour le contrôle des armes et la sécurité internationale.
Elle a déclaré que la déclaration politique des États-Unis, qui contient des lignes directrices non juridiquement contraignantes décrivant les meilleures pratiques pour une utilisation militaire responsable de l'IA, « peut être un point focal pour la coopération internationale ».
Jenkins a lancé la déclaration à l'issue d'une conférence de deux jours à La Haye, qui a pris un caractère d'urgence supplémentaire du fait que les progrès de la technologie des drones dans le cadre de la guerre de la Russie en Ukraine ont accéléré une tendance qui pourrait bientôt amener les premiers robots de combat entièrement autonomes du monde sur le champ de bataille. :
La déclaration des États-Unis comporte 12 points, dont le fait que les utilisations militaires de l'IA sont conformes au droit international et que les États « maintiennent le contrôle et la participation humaine pour toutes les actions essentielles à l'information et à l'exécution des décisions souveraines concernant l'emploi des armes nucléaires. »
Zachary Kallenborn, analyste de l'innovation en matière d'armement à l'université George Mason, qui a assisté à la conférence de La Haye, a déclaré que la décision des États-Unis de porter leur approche sur la scène internationale « reconnaît que les armes autonomes suscitent des inquiétudes. C'est significatif en soi ».
Kallenborn a déclaré qu'il était également important que Washington ait inclus un appel au contrôle humain sur les armes nucléaires, « car, en ce qui concerne le risque des armes autonomes, je pense que c'est facilement le risque le plus élevé que l'on puisse avoir ».
Soulignant le sentiment d'urgence internationale autour de l'IA et des armes autonomes, 60 nations, dont les États-Unis et la Chine, ont lancé un appel à l'action à la conférence de La Haye, demandant une large coopération dans le développement et l'utilisation militaire responsable de l'intelligence artificielle.
« Nous sommes à temps pour atténuer les risques et empêcher l'IA de devenir incontrôlable, et nous sommes à temps pour empêcher l'IA de nous conduire à un endroit où nous ne voulons tout simplement pas être », a déclaré le ministre néerlandais des Affaires étrangères, Wopke Hoekstra.
L'appel à l'action lancé aux Pays-Bas souligne « l'importance d'assurer des garanties appropriées et une surveillance humaine de l'utilisation des systèmes d'IA, en gardant à l'esprit les limites humaines dues aux contraintes de temps et de capacités. »
Les pays participants ont également invité les pays « à élaborer des cadres, des stratégies et des principes nationaux sur l'IA responsable dans le domaine militaire ». Les analystes militaires et les chercheurs en intelligence artificielle affirment que plus la guerre en Ukraine, qui dure depuis près d'un an, se prolonge, plus il est probable que les drones seront utilisés pour identifier, sélectionner et attaquer des cibles sans l'aide des humains.
Le ministre ukrainien de la transformation numérique, Mykhailo Fedorov, a déclaré à l'Associated Press dans une interview récente que les drones tueurs entièrement autonomes sont « une prochaine étape logique et inévitable » dans le développement des armes. Il a déclaré que l'Ukraine a fait « beaucoup de R et D dans cette direction ».
L'Ukraine dispose déjà de drones d'attaque semi-autonomes et d'armes de contre-drones dotés d'IA. La Russie affirme également posséder des armes à IA, bien que ces affirmations ne soient pas prouvées. Mais il n'existe aucun cas confirmé d'une nation mettant au combat des robots qui ont tué par eux-mêmes.
La Russie n'a pas été invitée à participer à la conférence de La Haye. L'ambassadeur de Chine aux Pays-Bas, Tan Jian, était présent et a déclaré que Pékin avait envoyé deux documents aux Nations unies sur la réglementation des applications militaires de l'intelligence artificielle, affirmant que cette question "concerne la sécurité commune et le bien-être de l'humanité, ce qui nécessite une réponse unie de tous les pays », a-t-il déclaré.
Les États-Unis comme la France, ainsi que d’autres pays de l’Europe, souhaitent tous réaliser des progrès considérables dans les domaines de l’IA. Selon le média, les chiffres énoncés n'incluent pas tous les programmes de recherche du ministère de la Défense. Les responsables affirment que le saut vise à suivre le rythme des efforts de la Chine.
La proposition faite en 2020 comprenait une augmentation de 70 % pour la National Science Foundation (NSF) pour les subventions liées à l'IA et les instituts de recherche interdisciplinaire. En gros, l’administration américaine veut que le Congrès double ses dépenses en financement de la R et D sur l'IA.
Le gouvernement français s’engage à soutenir le développement et la recherche en IA
En France, l'Élysée pense pareil. Après la publication du rapport de Cédric Villani en 2018, le gouvernement avait décidé de passer à l’offensive. Emmanuel Macron avait ainsi annoncé un investissement pouvant aller jusqu’à 1,5 million d’euros dans l’IA uniquement jusqu'en 2022 pour soutenir le développement et la recherche en IA en France. Parmi les 1,5 milliard d'euros promis pour le développement de l'IA, 650 millions étaient destinés à la recherche et 800 millions aux premiers projets, notamment dans la santé, la cybersécurité et la certification des algorithmes.
En cela, un montant de 400 millions d’euros avait été annoncé par le gouvernement pour des « appels à projets et de défis d’innovation de rupture ». Cela va servir à développer l'écosystème des entreprises spécialisées dans les solutions d'intelligence artificielle ; infuser l'IA dans tous les secteurs, y compris dans les PME avec le soutien des grands groupes. Cela permettra également d’attirer des investissements étrangers en France. En ce qui concerne l’informatique quantique, la France travaille aussi sur un plan d’action et quelques propositions ont été faites cette année.
Le ministère de l’Intérieur semble convaincu que la collecte et l’exploitation de grandes quantités de données associée à des travaux de linguistiques et de profilage pourraient donner de précieux coups d’avance aux forces de l’ordre, lors d’opérations de régulation et de gestion des manifestations. C’est pour cette raison qu’il a créé la mission numérique de la Gendarmerie qui travaille, entre autres, sur la gestion prédictive de l’ordre public. En matière de gestion de l’ordre public, l’IA pourrait notamment permettre de déterminer les caractéristiques d’une foule et assister les opérateurs dans leurs taches.
Le ministère de l’Intérieur financerait également le projet Intact, une initiative ambitieuse regroupant des ingénieurs de l’Institut de recherche en informatique de Toulouse ainsi que des linguistes de l’École normale supérieure. Le travail de ces derniers consiste, avec l’aide de l’IA, à analyser et faire le tri parmi les publications sur les réseaux sociaux afin d’anticiper les mouvements sociaux dans un contexte de crise.
La Chine ambitionne de devenir la super puissance du monde en matière d’IA
Selon Asia Times, cité par l'agence de presse ANI, la Chine envisage de mettre en place une guerre intelligente et informative pour Taipei, afin de passer à un nouveau niveau stratégique alors que la tension dans le détroit de Taïwan s'intensifie.
Non seulement Pékin a publié un plan ambitieux visant à faire de la Chine la première puissance mondiale en matière d'IA d'ici 2030, mais le Parti communiste chinois (PCC) a dévoilé une stratégie agressive axée sur l'innovation pour l'armée chinoise, l'Armée populaire de libération (APL). De même, Xi Jinping, le secrétaire général du PCC, n'a cessé de souligner l'engagement de la Chine en faveur du développement de l'IA et de la "guerre intelligente", tout récemment dans son rapport historique présenté cet automne au 20e Congrès du Parti.
Si les ambitions stratégiques de la Chine en matière d'IA sont claires, la manière dont elle entend intégrer l'IA dans l’Armée reste opaque. Les objectifs du PCC en matière d'IA militarisée sont encore entourés de mystère, même si l'Armée populaire de libération considère clairement l'IA comme une technologie qui sera vitale pour mener la guerre de la prochaine génération.
Cependant, la Force de soutien stratégique (SSF) de l'Armée populaire de libération, récemment créée, offre au moins quelques indices sur la manière dont Pékin entend insuffler des capacités d'IA dans l'ensemble de l'armée. Bien que l'objectif précis de la SSF ne soit pas encore bien compris, l'organisation a reçu une sorte de mandat d'innovation et a été chargée d'intégrer de nombreuses « fonctions stratégiques ». Compte tenu de l'ampleur de sa structure organisationnelle et de son mandat, la SSF semble être à l'avant-garde des efforts de l'APL pour se moderniser autour de nouvelles technologies comme l'IA.
Comme dit précédemment, un nombre croissant d'États développent des capacités militaires d'IA, qui peuvent inclure l'utilisation de l'IA pour activer des systèmes autonomes. L'utilisation militaire de l'IA peut et doit être éthique, responsable et renforcer la sécurité internationale. L'utilisation de l'IA dans les conflits armés doit être en accord avec le droit international humanitaire applicable, y compris ses principes fondamentaux.
L'utilisation militaire des capacités de l'IA doit être responsable, notamment par le biais d'une telle utilisation pendant les opérations militaires au sein d'une chaîne humaine de commandement et de contrôle responsable. Une approche fondée sur des principes de l'utilisation militaire de l'IA devrait inclure un examen minutieux des risques et des avantages, et elle devrait également minimiser les biais et les accidents involontaires.
Les États devraient prendre des mesures appropriées pour assurer le développement, le déploiement et l'utilisation responsables de leurs capacités militaires d'IA, y compris celles permettant la mise en place de systèmes autonomes. Ces mesures devraient être appliquées tout au long du cycle de vie des capacités d'IA militaire.
Source : U.S. Department of State
Et vous ?
Que pensez-vous de l'utilisation de l'intelligence artificielle à des fins militaires ?
Croyez-vous à une utilisation responsable de l'IA dans le domaine militaire ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'intelligence artificielle, la nouvelle arme de la gendarmerie contre les Gilets jaunes
La Maison-Blanche veut que le Congrès double le financement de l'intelligence artificielle et de la recherche et développement en informatique quantique