Les analystes militaires suggèrent que la décision de l'armée de l'air américaine de déployer des drones contrôlés par l'IA répond à l'évolution de la dynamique du champ de bataille, notamment en Ukraine, où les drones sont devenus des multiplicateurs de force essentiels. Les véhicules aériens sans pilote auraient la capacité d'accroître l'efficacité opérationnelle et la flexibilité tactique, mais les experts avertissent que l'idée de laisser l'IA trancher les questions de vie ou de mort constitue une frontière dangereuse. Malgré cela, le Pentagone souhaite tirer parti de la technologie de l'IA pour renforcer sa supériorité aérienne.
Le rapport, publié par le Wall Street Journal, indique que le choix de l'armée de l'air américaine d'introduire une flotte de 1 000 drones contrôlés par l'IA marque ainsi un changement important dans la stratégie militaire. Ces drones fonctionneront dans le cadre du programme Collaborative Combat Aircraft (CCA). Lancé au début des années 2000, le programme CCA vise à intégrer des drones pilotés par l'IA dans la flotte existante d'avions de combat pilotés. Ces drones équipés d'IA serviront de "coéquipiers", complétant, protégeant et soutenant les chasseurs conventionnels comme l'avion F-35 de cinquième génération.
La flotte envisagée de drones, capable d'exécuter diverses tâches opérationnelles, notamment la reconnaissance et l'engagement de cibles aériennes et terrestres, devrait offrir des alternatives rentables aux avions de combat traditionnels. En d'autres termes, l'armée de l'air américaine a décidé d'utiliser activement les drones pilotés par l'IA en raison des coûts élevés de construction des avions militaires standard pilotés par des soldats. Elle espère que les drones permettront de disposer "de plus d'avions pour moins d'argent". Le coût de production est estimé à environ un tiers de celui d'un avion de chasse comparable.
Selon le rapport, ces drones promettent d'alléger les pressions budgétaires et de rationaliser les dépenses de formation des pilotes. Et la première phase du programme devrait coûter environ 6 milliards de dollars, ce qui témoigne de l'ampleur et de l'ambition de l'entreprise. Dans le même temps, ce programme devrait contribuer à enrichir les entreprises de défense qui investissent de plus en plus dans la conception et le développement de véhicules militaires autonomes pilotés par une IA. Anduril Industries, Boeing et General Atomics, auraient déjà dévoilé les prototypes de leurs propositions de drones dotés d'une IA.
Ces entreprises se disputent les contrats lucratifs du ministère américain de la Défense (DOD), en mettant en avant les progrès de la technologie de couplage homme-machine et de l'intégration de l'IA. Parallèlement, des géants de l'industrie comme Lockheed Martin et Northrop Grumman s'emploient activement à affiner leurs offres, soulignant ainsi le paysage concurrentiel du secteur de la défense. La société d'analyse de données Palantir, qui est un contractant du Pentagone, travaille également sur d'autres projets d'IA pour l'armée américaine. Elle développe notamment le système de station au sol TITAN doté d'une IA.
Palantir affirme que le système TITAN est le premier véhicule défini par l'IA et qu'il aidera l'armée américaine à agir rapidement sur le champ de bataille. Les critiques dénoncent la militarisation des capacités de l'IA par Palantir. « TITAN propose des technologies qui changent la donne en matière de collecte, de traitement et de diffusion du renseignement sur le champ de bataille, ce qui nous donne un avantage décisif pour soutenir les opérations multi domaines », a déclaré le colonel américain Chris Anderson. Palantir affirme également que la station TITANT est conçue pour maximiser la facilité d'utilisation pour les soldats.
L'introduction de drones contrôlés par l'IA annonce un changement de paradigme dans la guerre aérienne, combinant l'innovation technologique et l'agilité stratégique. Cependant, elle soulève de nombreuses préoccupations d'ordre éthiques. De nombreux experts appellent à "l'interdiction de la militarisation des capacités de l'IA et des armes autonomes létales". Mais leur appel reste jusque-là sans réponse et les tentatives visant à élaborer des normes pour réglementer ces développements sur le plan mondial ont été infructueuses. Un critique a déclaré :
Le résultat était prévisible. Les drones contrôlés par l'IA sont une bombe atomique pour la guerre à terme. À grande échelle, ils constituent une arme qui a quelque chose de terrifiant : la guerre sans conséquences personnelles. Pour donner un exemple de la chose : vous cliquez sur un bouton, 400 drones partent, 250 reviennent, toutes vos cibles stratégiques sont mortes et aucun des "bons" n'est blessé. À terme, ils pourraient choisir leurs propres cibles.
Il n'existe aucun système d'armement ou de défense des frontières qui protège contre un assaut de centaines ou de milliers de cibles. Ils ne sont tout simplement pas conçus pour cela. Vous pourriez attaquer n'importe quel point des États-Unis, de l'Europe, de la Russie, etc. avec un essaim de drones. Et le bilan serait catastrophique pour la cible. L'essaim perdrait en nombre, c'est certain, mais lorsque l'attaque se produit, une partie de l'essaim s'éteint et détruit les lanceurs et les canons. Les drones pilotés par l'IA sont le résultat final des machines de guerre.
D'autres grandes puissances militaires, telles que la Chine et la Russie, auraient déjà leurs propres programmes de recherche dans ce domaine. Ces technologies, ainsi que toutes les questions éthiques qui les accompagnent (du moins certaines d'entre elles), feront l'objet d'un débat public dans un avenir proche, un avenir qui, pour beaucoup, est considéré comme plus incertain que jamais. Selon les analystes, les conflits du futur seront essentiellement technologiques, car l'IA est en train de changer le visage de la guerre. Toutefois, les risques pour l'humanité sont encore inconnus et font l'objet de très peu de débats publics.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'introduction par le Pentagone de drones contrôlés par l'IA ?
Quels sont les risques relatifs à l'utilisation de ces drones sur les théâtres d'opérations ?
À quoi pourraient ressembler les conflits du futur ? Quels sont les risques pour l'humanité ?
Selon vous, peut-on laisser une machine pilotée par l'IA trancher les questions de vie ou de mort ?
Voir aussi
L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle
Les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent, ce qui soulève des préoccupations d'ordre éthique
Un projet de loi bipartisan américain vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain, il affirme que l'IA ne devrait pas trancher les questions de vie ou de mort