Les présidents Joe Biden et Xi Jinping seraient sur le point de s’engager à interdire l’utilisation de l’intelligence artificielle dans les armes autonomes, telles que les drones, ainsi que dans le contrôle et le déploiement des ogives nucléaires. Les dangers potentiels de l’intelligence artificielle devraient être au cœur des discussions entre les États-Unis et la Chine, qui se déroulent en marge du sommet de la Coopération économique Asie-Pacifique de cette année à San Francisco. Washington et Pékin ont tous deux exprimé leur inquiétude quant à l’utilisation non réglementée de cette technologie pour alimenter les conflits.
Alors que l'Armée populaire de libération (APL) chinoise cherche à devenir une « armée de classe mondiale », ses progrès en matière de systèmes d'armes avancés continuent de susciter de vives inquiétudes de la part de ses voisins et concurrents. L'armée et l'industrie de défense chinoises ont réalisé d'importants investissements dans l'intelligence artificielle IA.
Sur la base des informations publiquement disponibles, la trajectoire de l'Armée populaire de libération dans le développement et l'utilisation potentielle de systèmes d'armes autonomes et dotés d'IA/ML reste incertaine. La maturité de ces capacités - ainsi que la question de savoir si, quand et dans quelle mesure des systèmes d'armes dotés de niveaux d'autonomie plus élevés ont été mis en service - ne peut être évaluée avec une grande confiance à ce stade.
Toutefois, la concurrence technologique devenant un élément de plus en plus important de la rivalité entre grandes puissances, il est clair que l'armée et l'industrie de la défense chinoises ont pris des initiatives actives en matière de recherche, de développement et d'expérimentation. Cependant, les progrès de la Chine dépendront de sa capacité à rendre opérationnels les systèmes d'armes émergents, ce qui nécessitera de surmonter les défis technologiques et organisationnels actuels en matière d'essais, de formation et de concepts d'opérations.
Les avancées chinoises en matière d'autonomie et de systèmes d'armes dotés d'IA pourraient avoir une incidence sur l'équilibre militaire, tout en exacerbant potentiellement les menaces pour la sécurité mondiale et la stabilité stratégique à mesure que la rivalité entre les grandes puissances s'intensifie. En s'efforçant d'acquérir un avantage technologique, l'armée chinoise pourrait s'empresser de déployer des systèmes d'armes qui ne sont pas sûrs, pas testés ou pas fiables dans des conditions opérationnelles réelles.
La Chine et les États-Unis en tête de la course à l’intelligence artificielle
Ces dernières années, les progrès de l'intelligence artificielle s'étant accélérés, presque toutes les grandes puissances se sont engagées à développer des capacités d'IA avancées et à intégrer efficacement l'IA dans leurs forces armées. Pourtant, aucune n'a poursuivi ces efforts avec autant de détermination que la Chine et les États-Unis. L'application par la Chine de la technologie de l'intelligence artificielle a des implications complexes et subtiles pour la sécurité internationale et régionale. Pour tirer parti des avantages structurels et systématiques de l'IA en matière d'innovation technologique, la Chine a lancé une campagne nationale visant à allouer des ressources au développement de l'IA dans les secteurs public et privé.
D'autres mesures, notamment des programmes éducatifs, une stratégie de "sortie" et une fusion militaire et civile, ont également été mises en œuvre pour soutenir l'innovation dans le domaine de l'IA. Pour se préparer à la guerre "intelligentisée" de demain, l'Armée populaire de libération mise sur la technologie de l'IA pour développer des systèmes de combat intelligents sans pilote, améliorer la connaissance de la situation sur le champ de bataille, mener des opérations multi-domaines et promouvoir des programmes de formation.
L'APL a déjà mis en œuvre des réformes structurelles et adapté sa doctrine pour s'assurer que l'utilisation de l'IA réponde aux exigences de la guerre future. Les progrès de la Chine dans le domaine de l'IA et de ses applications militaires pourraient déclencher une compétition régionale pour la primauté de l'IA ou une course aux armements dans ce domaine, ce qui aurait un effet ambigu sur la maîtrise des armements concernant les systèmes d'armes létaux autonomes.
Les efforts de l'APL pour renforcer ses capacités nucléaires en exploitant l'IA auront des effets à la fois stabilisateurs et déstabilisateurs sur la stabilité stratégique et le risque nucléaire. En fin de compte, l'introduction de l'IA sur les champs de bataille modernes peut aider la Chine à faire pencher la balance militaire dans le Pacifique occidental, mais son potentiel pour changer l'essence des conflits armés et la conduite de la guerre est limité.
Les États-Unis lancent une initiative pour promouvoir l’utilisation responsable de l’IA et des armes autonomes
Les États-Unis ont lancé une initiative pour promouvoir la coopération internationale sur l’utilisation responsable de l’intelligence artificielle et des armes autonomes par les militaires. Cette initiative vise à imposer l’ordre sur une technologie émergente qui a le potentiel de changer la façon dont la guerre est menée. La Commission de sécurité nationale américaine sur l’intelligence artificielle a conclu dans son rapport final de l’année dernière que les cas d’utilisation de l’IA dans les domaines de l’espace, du cyberespace et des opérations d’information sont particulièrement bien adaptés à l’intégration prioritaire d’applications basées sur l’IA dans les wargames, les exercices et les expérimentations.
Selon Bonnie Jenkins, sous-secrétaire du Département d’État pour le contrôle des armes et la sécurité internationale, les États-Unis ont l’obligation de créer des normes fortes de comportement responsable concernant les utilisations militaires de l’IA et d’une manière qui garde à l’esprit que les applications de l’IA par les militaires vont sans aucun doute changer dans les années à venir.
L’armée de l’air américaine prévoit de dépenser environ 5,8 milliards de dollars pour construire jusqu’à 2 000 drones sans pilote dotés d’une intelligence artificielle qui serviront aux côtés des pilotes humains. Les drones Valkyrie sont conçus pour remplir des fonctions telles que la surveillance ou les opérations de réapprovisionnement, ou pour se regrouper en essaims afin de combattre aux côtés de pilotes humains. Les drones coûteraient environ 3 millions de dollars chacun.
L’IA, élément essentiel de la future guerre selon le général de brigade Scott Cain
Le général de brigade Scott Cain, commandant de l’AFRL a déclaré : « L’IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l’image opérationnelle et prendre des décisions ». Il a également ajouté que « L’IA, les opérations autonomes et les équipes homme-machine continuent d’évoluer à un rythme sans précédent et nous avons besoin des efforts coordonnés de nos partenaires gouvernementaux, universitaires et industriels pour suivre le mouvement ».
Le projet vise à développer des « avions de combat collaboratifs […] capables d’améliorer les systèmes d’armes avec équipage pour atteindre la supériorité aérienne ». Le Congrès doit approuver l’effort quinquennal de construction de la flotte de drones, dont le budget s’élève à 5,8 milliards de dollars sur cette période. Au début du mois, le colonel Tucker Hamilton, chef d'opérations d'IA du département de l'armée de l'air, a indiqué que la branche aérienne de l'armée américaine avait fait voler le drone XQ-58A Valkyrie de 9,15 mètres de long pendant trois heures lors d'un test de vol contrôlé par l'IA, le premier du genre.
Toutefois, le département de la Défense des États-Unis s’est engagé à utiliser l’Intelligence Artificielle de manière responsable. Pour y parvenir, les développeurs et les utilisateurs de l’autonomie basée sur l’IA doivent travailler en collaboration avec des spécialistes de l’acquisition. Les dangers potentiels de l'intelligence artificielle devraient être au cœur des discussions entre les États-Unis et la Chine, qui se déroulent en marge du sommet de la Coopération économique Asie-Pacifique de cette année à San Francisco.
La déclaration politique des États-Unis contient des lignes directrices non juridiquement contraignantes décrivant les meilleures pratiques pour une utilisation militaire responsable de l’IA, qui peut être un point focal pour la coopération internationale.
En février, les États-Unis ont présenté leur déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie, un nouveau cadre juridique et diplomatique qui vise à obtenir un consensus mondial sur le développement et le déploiement de l’IA militaire.
Jusqu’à présent, 36 pays ont soutenu cette initiative et se sont engagés à se réunir l’année prochaine pour étudier les moyens de mettre en œuvre et d’améliorer les nouvelles réglementations en la matière. En octobre, le gouvernement de Biden a annoncé les conditions d’approbation des produits d’IA avancée. En vertu de ces nouvelles règles, ces initiatives doivent être certifiées par le gouvernement fédéral, afin de garantir qu’elles ne puissent pas être réutilisées pour créer des armes biologiques ou nucléaires.
Dans son rapport de travail présenté lors du congrès national du Parti communiste de l'année dernière, Xi s'est engagé à « favoriser la croissance unifiée et ciblée des industries émergentes stratégiques », en mettant particulièrement l'accent sur l'IA.
L’engagement des présidents Joe Biden et Xi Jinping à interdire l’utilisation de l’intelligence artificielle dans les armes autonomes est une étape importante pour réglementer l’utilisation de cette technologie dans les conflits armés. Les dangers potentiels de l’IA dans les armes autonomes ont été largement discutés, et il est encourageant de voir que les deux pays les plus puissants du monde prennent des mesures pour limiter son utilisation.
Cependant, il est important de noter que l’interdiction de l’IA dans les armes autonomes ne résoudra pas tous les problèmes liés à l’utilisation de cette technologie dans les conflits armés. Il est également important de s’assurer que l’utilisation de l’IA dans les armes non autonomes est réglementée de manière responsable.
En fin de compte, l’utilisation de l’IA dans les conflits armés doit être réglementée de manière responsable pour éviter les dangers potentiels de cette technologie. L’engagement des présidents Biden et Xi à interdire l’utilisation de l’IA dans les armes autonomes est un pas dans la bonne direction, mais il reste encore beaucoup à faire pour garantir que l’IA est utilisée de manière responsable dans les conflits armés.
Sources : Vidéos
Et vous ?
L’interdiction de l’utilisation de l’IA dans les armes autonomes est-elle suffisante pour réglementer l’utilisation de cette technologie dans les conflits armés ?
Comment peut-on s’assurer que l’utilisation de l’IA dans les armes non autonomes est réglementée de manière responsable ?
Selon vous, comment peut-on garantir que l’utilisation de l’IA dans les conflits armés est conforme aux normes internationales en matière de droits de l’homme et de droit humanitaire ?
Voir aussi :
Intelligence artificielle et armement : l'armée de l'air américaine veut 6 milliards de dollars pour construire 2 000 drones, dotés d'une intelligence artificielle
Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA
Google veut à nouveau travailler avec le Pentagone, malgré les inquiétudes des employés. L'entreprise aurait proposé d'être un fournisseur de cloud militaire