Le Hamas a commencé à tirer des roquettes sur Israël après les protestations des Palestiniens en mai. Cela a conduit à un conflit de 11 jours au cours duquel 256 personnes ont été tuées à Gaza et 13 en Israël. Au cours de ces violences, l'armée israélienne affirme que plus de 4300 roquettes ont fait l'objet de tirs depuis Gaza en direction de villes et de villages. Israël a riposté par des frappes aériennes et des tirs d'artillerie, mais n'a pas déployé de forces terrestres dans sa lutte contre les terroristes. Le pays a plutôt fait usage d’un ingrédient additionnel : des essaims de drones autonomes.
Auparavant, les drones étaient dirigés par un seul opérateur qui pilotait l'appareil depuis une base éloignée. Mais ces dernières années, les militaires s’activent au développement d'une intelligence artificielle qui permet aux drones de travailler ensemble sans avoir besoin d'un opérateur humain. Le tableau interpelle quand on prend en compte le fait que le chef de la branche de modernisation des armées US reconnaît que « l’Homme va devoir passer la main à l’intelligence artificielle pour faire face aux menaces des champs de bataille du futur. »
L’armée US et d’autres de par le monde tablent donc sur les meilleurs moyens de contrecarrer ce type de flotte. Le chef de la branche de modernisation des armées US explique que, dans des situations où un ennemi mettrait en œuvre une telle artillerie, l'humain ne serait pas à même de résister longtemps en raison de paramètres comme l’importance de son temps de réaction. C’est fort de cette observation qu’il appelle à l'utilisation de systèmes de combat renforcés par de l'Intelligence artificielle (IA). Ils permettraient d'améliorer la reconnaissance et l'identification des cibles et surtout de gagner en réactivité. Autrement dit, l’hyperactivité des champs de bataille du futur forcera l’humain à passer la main à l’intelligence artificielle pour assurer sa propre défense.
Ces développements font suite à une sortie d’Elon Musk sur la question : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable… L’ère des avions de chasse est révolue. »
C’est le type de tableau auquel on aura de plus en plus droit tant les exemples qui illustrent le fait qu’une machine peut être mise sur pied pour surpasser un humain sur une tâche donnée peut être allongée à souhait. Pour ce qui est du cas spécifique des combats aériens, noter qu’Alpha, une intelligence artificielle mise sur pied par les laboratoires de recherche de l’armée américaine, a défait des experts de cette dernière dans le cadre de simulations de combats aériens.
« J’ai été surpris par la manière dont elle était consciente et réactive. Elle semblait être consciente de mes intentions et réagir instantanément à mes changements en vol et à mes déploiements de missiles. Elle savait comment déjouer le tir que je faisais. Elle changeait instantanément entre les actions défensives et offensives en fonction des besoins », commente le colonel américain Gene Lee, décrivant Alpha comme étant l’intelligence artificielle la plus agressive, réactive, dynamique et crédible qu’il ait jamais vue.
Le chef de la branche de modernisation des armées US s’appuie sur des chiffres du Project Convergence pour écarter les craintes liées à plus d’autonomie des systèmes d’intelligence artificielle. La précision apportée par ces deniers oscillerait entre 98 et 99 % pour ce qui est des tâches d’identification, de pistage et de destruction desdites menaces aériennes.
On entre alors en plein dans les questions d’éthique en lien avec l’utilisation de l’intelligence artificielle. L’ouverture desdits systèmes à plus d’autonomie leur conférerait au final un droit de vie ou de mort sur le champ de bataille. La position de l’UE sur la question est que les robots-tueurs doivent faire l’interdiction. Le Parlement européen a adopté une résolution y relative en 2018. D’autres pays parmi lesquels les USA et la Russie mettent en avant la nécessité d’explorer les avantages des armes autonomes. C’est d’ailleurs l’un des motifs pour lesquels les négociations en la matière se sont trouvées bloquées au niveau des Nations Unies il y a 2 ans.
Et vous ?
Les systèmes d’armement autonomes doivent-ils être interdits à l’échelle internationale ?
Peut-on espérer que les pays du monde parviennent à une telle entente ?
Voir aussi :
Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille, et appelle à interdire les robots-tueurs
Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations, menées au niveau des Nations Unies