Lors de l'événement Technology Readiness Experimentation (T-REX) en août, le ministère américain de la Défense a testé « Bullfrog », un système de canon robotique autonome doté d'intelligence artificielle, développé par la jeune entreprise Allen Control Systems (ACS). Conçu pour contrer les menaces croissantes des drones, des armes économiques et redoutables, le Bullfrog est une mitrailleuse autonome capable de détecter et d'abattre des drones avec précision jusqu'à 200 mètres. Contrairement aux systèmes traditionnels, il met l'accent sur la précision pour économiser les munitions, offrant ainsi une solution plus abordable face aux défis coûteux des systèmes de défense actuels.
Actuellement supervisé par un opérateur humain, le système pourrait évoluer vers une autonomie totale, soulevant des débats éthiques sur l'usage de machines dans des décisions létales. Le Pentagone, via son initiative Replicator, explore de telles innovations face à la montée des attaques de drones, particulièrement préoccupantes au Moyen-Orient. Bien que prometteur, le Bullfrog reste sujet à des interrogations sur la fiabilité des systèmes d'IA dans des environnements de guerre imprévisibles.
Pour Steve Simoni, cofondateur et PDG d'ACS et ancien ingénieur nucléaire de la marine, le meilleur moyen d'optimiser une arme à feu pour contrer les menaces des drones n'est pas d'utiliser de nouveaux accessoires ou d'améliorer la formation, mais de combiner la robotique avancée et une IA sophistiquée qui permet d'éliminer les incertitudes liées à l'acquisition et au suivi des cibles.
Lors de l'invasion russe de l'Ukraine, Simoni et son cofondateur, Luke Allen, un autre ancien militaire de la marine, ont observé l'usage massif des drones des deux côtés du conflit. « Nous avons lu dans les médias que les Ukrainiens tentaient de les abattre avec des AK-47, tirant en l'air », raconte Simoni. « Cela nous a semblé un problème pertinent pour la robotique. Il est difficile de toucher un objet qui vole à grande vitesse, mais un robot équipé de vision artificielle et de contrôles basés sur l'IA pourrait réussir à le faire. »
Bien que les optiques intelligentes comme le système de contrôle de tir SMASH de SmartShooter utilisent également l'IA et la vision par ordinateur pour suivre les cibles potentielles, Simoni pense que le fait de maintenir physiquement un fusil pointé sur un drone se déplaçant rapidement est un défi plus important que même un soldat humain hautement qualifié équipé d'une lunette de visée montée sur une arme avancée est en mesure de relever. La solution, selon Simoni, consiste à éliminer complètement les humains de l'équation et à permettre à un système de contrôle des mouvements extrêmement précis, construit sur mesure, de maintenir une cible stable sur un drone en approche au milieu de l'espace aérien.
« En tant qu'ingénieurs électriciens, nous avons déterminé que pour neutraliser un drone rapide, accélérant à cinq G à quelques centaines de mètres, il était nécessaire d'utiliser un courant extrêmement élevé passant par un moteur et des encodeurs capables de suivre en permanence la position de l'arme », explique Simoni. « Faire tenir ce dispositif dans les mains d'une personne armée d'un M4 représentait un défi technique considérable. »
« Un drone DJI Mini est à peine plus grand que ma main, et notre système peut en abattre un à 200 mètres en seulement deux tirs », précise-t-il. « Aucun humain ne pourrait réaliser ce tir. »
Les drones : une nouvelle arme de destruction de plus en plus puissante et accessible
Depuis des années, les commandants américains au Moyen-Orient soulignent que les drones commerciaux, économiques et facilement armables constituent une menace croissante pour leurs forces, comparable à l'impact des engins explosifs improvisés pendant la guerre contre le terrorisme. Cette inquiétude s'est intensifiée récemment avec les attaques répétées contre des navires en mer Rouge et des bases américaines en Irak et en Syrie, notamment après l'escalade du conflit entre Israël et le Hamas. En janvier, une attaque de drone en Jordanie, près de la frontière syrienne, a coûté la vie à trois soldats américains, révélant des lacunes dans les systèmes de défense anti-drones en place.
Selon Cooper, la nature des menaces évolue rapidement. Il note qu'il y a à peine un an, les petits drones n'étaient pas perçus comme des destructeurs potentiels de véhicules blindés, comme observé en Ukraine. Cette évolution nécessite d'importants investissements pour mettre en place des systèmes défensifs capables de répondre à ces nouvelles menaces.
Le programme Replicator 2 pourrait offrir une variété de solutions anti-drones, allant des tourelles armées comme le XM914 à des armes sophistiquées telles que des lasers à haute énergie et des intercepteurs comme le système VAMPIRE. D'autres options incluent des drones autonomes, des brouilleurs électroniques ou encore des armes portatives comme les systèmes Stinger. Cependant, malgré ces avancées, les solutions actuelles se heurtent à des défis, notamment le coût disproportionné des défenses comparé aux drones eux-mêmes.
Steve Simoni, promoteur du système autonome Bullfrog, affirme que son système, basé sur l'IA et la robotique, pourrait offrir une défense plus efficace et économique, tout en nécessitant moins de maintenance. Bien que prometteuse, cette technologie soulève des préoccupations éthiques et opérationnelles, notamment l'absence de contrôle humain direct sur la prise de décision létale. Ainsi, si ces innovations autonomes se généralisent, elles pourraient redéfinir l’espace de combat, où des robots s'affronteraient en première ligne, limitant potentiellement le rôle des soldats humains.
L'Intelligence artificielle dans les armées permet une défense plus efficace, mais à quel prix ?
L'utilisation croissante de l'intelligence artificielle par les armées soulève des questions complexes sur ses implications éthiques, techniques et stratégiques. Les IA appliquées aux systèmes de défense peuvent représenter une avancée majeure dans l'automatisation des tâches militaires, permettant de traiter des données en temps réel, de cibler des menaces et d'automatiser des processus qui nécessitaient auparavant une intervention humaine.
D’un point de vue technique, les armées exploitent déjà des technologies de suivi et d'automatisation avancées, qui ne sont pas nécessairement des IA, mais qui améliorent l’efficacité des systèmes de défense. Des exemples incluent les systèmes de défense aérienne comme le Seawhizz ou l’AGEIS, qui ne recourent pas à des IA mais utilisent des algorithmes de suivi sophistiqués pour intercepter des cibles. Cette distinction entre automatisation et véritable intelligence artificielle est souvent floue, notamment lorsqu'il s'agit de désigner ces technologies par des termes comme « IA », qui peuvent parfois être utilisés à des fins commerciales pour accroître l'attrait ou l'investissement dans de nouveaux produits. Cette ambiguïté pourrait créer une surévaluation des capacités réelles de ces systèmes.
En ce qui concerne les drones et autres véhicules autonomes, les armées du monde entier se tournent de plus en plus vers ces technologies pour contrer les menaces émergentes. Bien que les drones soient efficaces, leur utilisation soulève des préoccupations logistiques : leur coût, leur taille et leur consommation d'énergie peuvent limiter leur déploiement à grande échelle, comme l'indiquent certains experts. Toutefois, la miniaturisation et la baisse des coûts des versions récentes permettent une adoption plus large, ce qui pourrait rendre ces systèmes accessibles à des acteurs de plus en plus nombreux, augmentant ainsi le risque d'escalade ou de mauvaise utilisation.
La promesse de l'IA dans ces contextes réside aussi dans sa capacité à offrir des solutions rentables et précises pour contrer des menaces comme les drones, qui deviennent de plus en plus populaires et difficiles à abattre avec des technologies conventionnelles. Néanmoins, l’utilisation d’IA dans des systèmes d’armement soulève des inquiétudes éthiques majeures. Le principal défi réside dans la gestion de la prise de décision autonome, en particulier lorsque l’on considère que ces systèmes pourraient intervenir sans supervision humaine directe, potentiellement en dehors des cadres légaux et éthiques.
En somme, bien que l'IA présente des avantages indéniables pour améliorer les capacités de défense, son déploiement à grande échelle, en particulier dans les systèmes autonomes, nécessite une réglementation stricte et une vigilance accrue pour éviter des dérives technologiques et éthiques.
Source : US Defense Department at the T-REX event in August
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous que le système « Bullfrog » est-il suffisamment fiable pour être utilisé sur le terrain, notamment face à des conditions imprévues ou des cyberattaques qui pourraient compromettre ses algorithmes ?
L'usage croissant de technologies autonomes comme le « Bullfrog » pourrait-il réduire le rôle des soldats humains sur le terrain, et quelles conséquences cela aurait-il sur la stratégie militaire à long terme ?
Voir aussi :
Les robots tueurs de la Chine arrivent : les grandes puissances ont commencé à développer des "robots tueurs" entièrement autonomes et dotés d'une IA, pour remplacer leurs soldats sur le champ de bataille
L'armée US fait le premier achat confirmé d'un produit OpenAI pour les forces de combat pour « l'analyse unifiée du traitement des données », un objectif qui montre une ignorance des hallucinations de l'IA
L'armée de l'air américaine va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien et réduire les coûts des avions militaires standard pilotés par des soldats