Il est propulsé en vol par un moteur de fusée. Il peut voler sur une distance égale à la largeur de la Chine. Il est furtif et peut transporter des missiles capables d'atteindre des cibles ennemies bien au-delà de sa portée visuelle. Mais ce qui distingue vraiment l'avion expérimental XQ-58A Valkyrie de l'armée de l'air, c'est qu'il est géré par une intelligence artificielle.
Cela le place à l'avant-garde des efforts déployés par l'armée américaine pour exploiter les capacités d'une technologie émergente dont les vastes avantages potentiels sont tempérés par de profondes inquiétudes quant au degré d'autonomie qu'il convient d'accorder à une arme mortelle. Essentiellement un drone de nouvelle génération, le Valkyrie est un prototype de ce que l'armée de l'air espère voir devenir un puissant complément à sa flotte d'avions de chasse traditionnels, en donnant aux pilotes humains un essaim d'ailerons robotisés hautement compétents à déployer dans la bataille. Sa mission est de combiner l'intelligence artificielle et ses capteurs pour identifier et évaluer les menaces ennemies, puis, après avoir obtenu l'aval d'un pilote, de passer à l'acte...
L'émergence de l'intelligence artificielle contribue à l'émergence d'une nouvelle génération de sous-traitants du Pentagone qui cherchent à saper, ou du moins à perturber, la primauté de longue date de la poignée d'entreprises géantes qui fournissent aux forces armées des avions, des missiles, des chars et des navires. La possibilité de construire des flottes d'armes intelligentes, mais relativement peu coûteuses, qui pourraient être déployées en grand nombre, permet aux responsables du Pentagone de réfléchir à de nouvelles façons d'affronter les forces ennemies.
Le programme Valkyrie donne un aperçu de la manière dont le secteur de l'armement, la culture militaire, les tactiques de combat et la concurrence avec les pays rivaux sont remodelés par les progrès rapides de la technologie. L'acquisition et le maintien d'un avantage en matière d'intelligence artificielle est l'un des éléments d'une course de plus en plus ouverte avec la Chine pour la supériorité technologique en matière de sécurité nationale.
Les planificateurs militaires craignent que l'on ne puisse plus compter sur la combinaison actuelle d'avions et de systèmes d'armes de l'armée de l'air, malgré les milliards de dollars investis dans ces appareils, pour dominer un conflit de grande ampleur avec la Chine, en particulier s'il impliquait une invasion de Taïwan par la Chine. En effet, la Chine équipe ses côtes et les îles artificielles qu'elle a construites en mer de Chine méridionale de plus d'un millier de missiles anti-navires et anti-aériens qui réduisent considérablement la capacité des États-Unis à répondre à une éventuelle invasion de Taïwan sans subir des pertes massives dans les airs et en mer.
"Est-ce une réponse parfaite ? Ce n'est jamais une réponse parfaite lorsque l'on se projette dans l'avenir", a déclaré le général de division R. Scott Jobe, qui, jusqu'à cet été, était chargé de définir les exigences du programme de combat aérien, alors que l'armée de l'air s'efforce d'intégrer l'intelligence artificielle dans ses avions de chasse et ses drones. "Mais vous pouvez poser des dilemmes à vos adversaires potentiels, et l'un de ces dilemmes est la masse", a déclaré le général Jobe lors d'une interview au Pentagone, en faisant référence au déploiement d'un grand nombre de drones contre les forces ennemies. "Il est possible d'apporter de la masse à l'espace de bataille avec potentiellement moins de personnes."
L'armée de l'air se rend compte qu'elle doit également faire face à des préoccupations profondes concernant l'utilisation militaire de l'intelligence artificielle, qu'il s'agisse de la crainte que la technologie ne se retourne contre ses créateurs humains (comme Skynet dans la série de films "Terminator") ou de réticences plus immédiates à l'idée de permettre aux algorithmes de guider l'utilisation de la force meurtrière.
"On franchit une ligne morale en confiant le soin de tuer à des machines, en permettant à des capteurs informatiques plutôt qu'à des humains de prendre des vies humaines", a déclaré Mary Wareham, directrice de la division armes de Human Rights Watch, qui milite pour l'établissement de limites internationales sur les armes dites létalement autonomes.
Une politique récemment révisée du Pentagone sur l'utilisation de l'intelligence artificielle dans les systèmes d'armes autorise l'utilisation autonome de la force létale, mais tout projet de construction ou de déploiement d'une telle arme doit d'abord être examiné et approuvé par un groupe militaire spécial. Les humains continueront à jouer un rôle central dans la nouvelle vision de l'armée de l'air, ont déclaré de hauts responsables du Pentagone, mais ils seront de plus en plus associés à des ingénieurs en logiciel et à des experts en apprentissage automatique, qui affineront constamment les algorithmes régissant le fonctionnement des robots qui voleront à leurs côtés.
Les essais fonctionnels de base du drone n'étaient que la préparation au véritable spectacle, où le Valkyrie va au-delà de l'utilisation d'outils de pilotage automatique avancés et commence à tester les capacités de combat de son intelligence artificielle. Lors d'un test prévu dans le courant de l'année, le drone de combat sera invité à poursuivre puis à tuer une cible ennemie simulée au-dessus du golfe du Mexique, en élaborant sa propre stratégie pour la mission.
Au cours de la phase actuelle, l'objectif est de tester la capacité de vol du Valkyrie et le logiciel d'intelligence artificielle, de sorte que l'aéronef ne transporte aucune arme. Le combat aérien prévu se déroulera avec un ennemi "construit", même si l'agent de l'I.A. à bord du Valkyrie croira qu'il s'agit d'un ennemi réel.
Les responsables estiment qu'il faudra cinq à dix ans pour mettre au point un système de combat aérien basé sur l'intelligence artificielle. Les commandants de l'armée de l'air font pression pour accélérer l'effort, mais reconnaissent que la rapidité ne peut être le seul objectif. "Nous n'y parviendrons pas tout de suite, mais nous y arriverons", a déclaré le général Jobe. "[I]Il s'agit d'une technologie avancée qui s'améliore de jour en jour, au fur et à mesure que l'on continue à former ces algorithmes.
Elle les oblige également à s'interroger sur le rôle que les humains devraient jouer dans les conflits menés avec des logiciels conçus pour tuer. L'article ajoute que l'armée de l'air américaine prévoit de construire 1 000 à 2 000 drones IA pour un coût unitaire de 3 millions de dollars. Certains se concentreront sur des missions de surveillance ou de réapprovisionnement, d'autres voleront en essaims d'attaque et d'autres encore serviront d'"ailier fidèle" à un pilote humain.
Source : The New York Times
Et vous ?
Quel est votre avis sur le sujet ?
Quel est votre avis sur la question morale de donner la décision de vie ou de mort à l'IA ?
Voir aussi :
Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort
Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire. Les critiques notent que cette déclaration n'est pas juridiquement contraignante
Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA
L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle
L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle
Le , par Jade Emy
Une erreur dans cette actualité ? Signalez-nous-la !