Heron Systems est une entreprise californienne qui développe des agents autonomes et des systèmes multiagents alimentés par l'intelligence artificielle. En août dernier, la DARPA a sélectionné huit équipes allant de grands entrepreneurs traditionnels de la défense comme Lockheed Martin à de petits groupes comme Heron pour participer à une série d'essais en novembre et janvier. En finale, jeudi, Heron est sorti vainqueur contre les sept autres équipes après deux jours de combats aériens à l’ancienne. Cela lui a donné le passe pour affronter un pilote de chasse humain.
Le but de ce combat est de déterminer si des systèmes autonomes pourraient vaincre les avions adverses dans un combat aérien simulé. Assis dans un simulateur avec un casque de réalité virtuelle, le pilote humain n’a pas su arriver à bout de l’agent d’IA une seule fois. Il a perdu tous les cinq rounds de l’affrontement. Selon la DARPA, ce défi a totalisé plus de 5 000 téléspectateurs dans le monde sur YouTube et d'autres chaînes, y compris des adversaires. « C'est un pas de géant », a commenté Justin Mock de la DARPA à la fin des épreuves.
Lors de la diffusion en direct des essais d'AlphaDogfight jeudi, les responsables de la DARPA ont déclaré que l'IA a encore un long chemin à parcourir avant que les pilotes de l'armée de l'air ne soient prêts à passer le relais à un agent d’IA pendant un combat. Toutefois, les essais de trois jours montrent que les systèmes d'IA peuvent manœuvrer un avion de manière crédible dans un scénario de combat simple et individuel et tirer sur ses canons avant dans un combat aérien classique, de type “Dogfight”, comme pendant la Seconde Guerre mondiale.
Les responsables du projet ont cependant reconnu qu’il s’agissait d’une démonstration impressionnante de la part d'un agent d'IA, surtout après seulement un an de développement. Pour rappel, le programme a débuté au mois de septembre 2019 avec huit équipes développant leurs IA respectives. « Même une semaine avant le premier essai, nous avions des agents qui n'étaient pas du tout très bons pour voler. Nous avons vraiment réussi à renverser la vapeur, et depuis, nous sommes vraiment numéro un », a déclaré Ben Bell, le co-chef de l'équipe de Heron pour le projet.
L'équipe a aussi déclaré qu’elle a l'intention de publier plus tard cette année certains détails sur le processus d'apprentissage par renforcement qu’elle a appliqué à son agent d’IA. Quant au pilote du F-16, il a déclaré que l'exercice l'avait amené à faire confiance aux algorithmes de combat aérien, en particulier à leur mouvement de motricité fine (et donc de manœuvre), à leur capacité de prise de décision rapide et à leur capacité de ciblage. Il a toutefois aussi insisté sur le fait que certaines des règles et contraintes que les pilotes appliquent dans la vie réelle n’étaient pas présentes.
Selon lui, tout ceci a permis à l’IA d’Heron de manoeuvrer dans une position avantageuse. Si l'IA semble avoir bien appris ses leçons, “Banger” (le pseudonyme du pilote) en a également tiré des enseignements. Au fur et à mesure que les rondes progressaient, il faisait mieux face à l'IA. Lors du 5e round contre l'IA, il avait adopté une nouvelle tactique, imitant ce que faisait l'IA. « Dans les troisième et quatrième sets, je me suis concentré sur la maximisation d'un avantage [de position] que j'avais. J'ai fait une erreur que l'IA a pu exploiter », a-t-il déclaré.
« Pour le cinquième set, j'ai essayé d'égaler ce que l'IA faisait. Je suis monté avec [le chasseur AI] pour minimiser la distance [entre les deux avions], ce qui n'est peut-être pas quelque chose que j'aimerais faire, mais que je pourrais faire en fonction de l'adversaire avec lequel je me fonds. De ce fait, je l'ai obligé à faire une erreur », a-t-il ajouté. Les connaissances acquises pendant les essais “AlphaDogfight” vont aider l'armée américaine à aller de l’avant dans le domaine des combats. Le colonel Dan Javorsek de l'armée de l'air a d’ailleurs une idée de la première étape à franchir.
Il a annoncé que les humains devront réduire leur ratio par rapport aux ressources non habitées. En d’autres termes, un ou quelques humains devront gérer un certain nombre de ressources non habitées par rapport à un grand nombre d'humains qui gèrent une seule ressource non habitée, comme c'est le cas actuellement. Il faudra pour cela que le personnel de l'armée de l'air fasse confiance à cette technologie, ce qui représente la principale motivation derrière l’organisation des essais AlphaDogfight, une chose que Javorsek pense qu'ils ont réussie.
« Si je devais quitter la salle aujourd'hui en disant que je ne fais pas confiance à la capacité de l'IA à effectuer des mouvements de motricité fine et à tuer, je manquerais d'intégrité », a-t-il déclaré. Les prochaines étapes du programme ACE comprennent naturellement l'intégration d'un agent d’IA dans un avion du monde réel à petite échelle et éventuellement dans un avion de combat piloté. Selon le colonel Javorsek, le délai pour y parvenir sera probablement supérieur à une décennie, peut-être deux. « Cela suppose que nous ayons quelque chose de prêt pour le prime time, ce que nous n'avons certainement pas à ce stade », a-t-il dit.
L’apport de l’IA dans l’armement est l’un des sujets les plus sensibles actuellement, la Russie et la Chine étant d’autres acteurs de cette course. Plusieurs questions subsistent, notamment celles liées aux biais de l’IA et l'éthique. Les avancées de l’IA dans le domaine de l’armement semblent nous rapprocher de plus en plus de Skynet. Serait-il raisonnable d’envoyer un système autonome au combat et lui laisser le droit de vie ou de mort ? Pour l’instant, l’Union européenne est contre l’idée, mais les choses évoluent très rapidement du côté des États Unis et des grands pays asiatiques. Elle pourrait donc être contrainte dans les prochaines décennies de revoir sa position.
Source : Breaking Defense
Et vous ?
Qu'en pensez-vous ?
Voir aussi
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
Chine : les enfants les plus brillants du pays sont sélectionnés pour être formés pour le développement d'armes létales basées sur l'IA
Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots-tueurs
Poutine approuve un projet qui éviterait à la Russie d'être distancée par d'autres pays dans la course à l'IA et, pourquoi pas, de "devenir le maître du monde"