L’intelligence artificielle (IA) et l’informatique quantique seront sans doute les prochaines révolutions du monde technologique. À ce titre, aucun pays ne veut être laissé pour compte, surtout pas les États-Unis. Le gouvernement américain a lancé une initiative visant à promouvoir la coopération internationale sur l'utilisation responsable de l'intelligence artificielle et des armes autonomes par les militaires.Ces dernières années, les progrès de l'intelligence artificielle (IA) s'étant accélérés, presque toutes les grandes puissances se sont engagées à développer des capacités d'IA avancées et à intégrer efficacement l'IA dans leurs forces armées. Pourtant, aucune n'a poursuivi ces efforts avec autant de détermination que la Chine et les États-Unis.
Les États-Unis ont lancé une initiative visant à promouvoir la coopération internationale sur l'utilisation responsable de l'intelligence artificielle et des armes autonomes par les militaires, cherchant à imposer l'ordre sur une technologie émergente qui a le potentiel de changer la façon dont la guerre est menée.
La Commission de sécurité nationale américaine sur l'intelligence artificielle a conclu dans son rapport final de l'année dernière que « même si l'IA sera omniprésente dans tous les domaines, les volumes élevés de données associés aux domaines de l'espace, du cyberespace et des opérations d'information font que les cas d'utilisation dans ces domaines sont particulièrement bien adaptés à l'intégration prioritaire d'applications basées sur l'IA dans les wargames, les exercices et les expérimentations ».
« En tant que technologie en évolution rapide, nous avons l'obligation de créer des normes fortes de comportement responsable concernant les utilisations militaires de l'IA et d'une manière qui garde à l'esprit que les applications de l'IA par les militaires vont sans aucun doute changer dans les années à venir », a déclaré Bonnie Jenkins, sous-secrétaire du Département d'État pour le contrôle des armes et la sécurité internationale.
Elle a déclaré que la déclaration politique des États-Unis, qui contient des lignes directrices non juridiquement contraignantes décrivant les meilleures pratiques pour une utilisation militaire responsable de l'IA, « peut être un point focal pour la coopération internationale ».
Jenkins a lancé la déclaration à l'issue d'une conférence de deux jours à La Haye, qui a pris un caractère d'urgence supplémentaire du fait que les progrès de la technologie des drones dans le cadre de la guerre de la Russie en Ukraine ont accéléré une tendance qui pourrait bientôt amener les premiers robots de combat entièrement autonomes du monde sur le champ de bataille. :
La déclaration des États-Unis comporte 12 points, dont le fait que les utilisations militaires de l'IA sont conformes au droit international et que les États « maintiennent le contrôle et la participation humaine pour toutes les actions essentielles à l'information et à l'exécution des décisions souveraines concernant l'emploi des armes nucléaires. »
Zachary Kallenborn, analyste de l'innovation en matière d'armement à l'université George Mason, qui a assisté à la conférence de La Haye, a déclaré que la décision des États-Unis de porter leur approche sur la scène internationale « reconnaît que les armes autonomes suscitent des inquiétudes. C'est significatif en soi ».
Kallenborn a déclaré qu'il était également important que Washington ait inclus un appel au contrôle humain sur les armes nucléaires, « car, en ce qui concerne le risque des armes autonomes, je pense que c'est facilement le risque le plus élevé que l'on puisse avoir ».
Soulignant le sentiment d'urgence internationale autour de l'IA et des armes autonomes, 60 nations, dont les États-Unis et la Chine, ont lancé un appel à l'action à la conférence de La Haye, demandant une large coopération dans le développement et l'utilisation militaire responsable de l'intelligence artificielle.
« Nous sommes à temps pour atténuer les risques et empêcher l'IA de devenir incontrôlable, et nous sommes à temps pour empêcher l'IA de nous conduire à un endroit où nous ne voulons tout simplement pas être », a déclaré le ministre néerlandais des Affaires étrangères, Wopke Hoekstra.
L'appel à l'action lancé aux Pays-Bas souligne « l'importance d'assurer des garanties appropriées et une surveillance humaine de l'utilisation des systèmes d'IA, en gardant à l'esprit les limites humaines dues aux contraintes de temps et de capacités. »
Les pays participants ont également invité les pays « à élaborer des cadres, des stratégies et des principes nationaux sur l'IA responsable dans le domaine militaire ». Les analystes militaires et les chercheurs en intelligence artificielle affirment que plus la guerre en Ukraine, qui dure depuis près d'un an, se prolonge, plus il est probable que les drones seront utilisés pour identifier, sélectionner et attaquer des cibles sans l'aide des humains.
Le ministre ukrainien de la transformation numérique, Mykhailo Fedorov, a déclaré à l'Associated Press dans une interview récente que les drones tueurs entièrement autonomes sont « une prochaine étape logique et inévitable » dans le développement des armes. Il a déclaré que l'Ukraine a fait...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Quel est votre avis sur le sujet ?