
L'utilisation de drones autonomes, de navires sans pilote et de véhicules terrestres autonomes soulève des préoccupations éthiques et de sécurité. La capacité de ces machines à faire la distinction entre combattants et civils sur le champ de bataille est remise en question, suscitant des inquiétudes quant aux violations du droit humanitaire international. Certains pays, notamment les États-Unis, envisagent de réglementer strictement l'utilisation de ces armes, tandis que d'autres cherchent à les interdire complètement.
Une approche alternative envisage la formation d'essaims de robots interconnectés, capables de communiquer entre eux et de prendre collectivement des décisions tactiques. Cependant, le rapport met en garde contre les risques liés à des comportements émergents, où ces machines pourraient agir de manière imprévisible et potentiellement dangereuse, échappant au contrôle humain. Ces comportements émergents pourraient entraîner des conséquences graves, telles que des actes d'escalade non intentionnels, la destruction d'infrastructures civiles ou des interférences avec des opérations militaires cruciales.
Malgré les assurances des responsables américains quant à la capacité de contrôler ces armes autonomes, le rapport souligne la nécessité de prendre des mesures pour réduire les risques potentiels associés à leur utilisation. Le débat sur l'utilisation de ces dispositifs se concentre principalement sur la question de savoir s'ils peuvent être habilités à prendre des vies humaines sans surveillance humaine, suscitant des inquiétudes au sein de la société civile et des organisations religieuses.
Les experts mettent en garde contre les dangers potentiels de comportements émergents qui pourraient échapper au contrôle humain, entraînant des conséquences imprévisibles et potentiellement dévastatrices sur le champ de bataille. La nécessité d'une réglementation stricte et de mesures visant à réduire les risques est soulignée, tout en soulignant que l'humanité doit rester vigilante face à l'évolution rapide de la technologie militaire.
En août dernier, le département de la Défense des États-Unis a pris l'engagement de recourir à l'Intelligence Artificielle de manière responsable. Afin d'atteindre cet objectif, les développeurs et utilisateurs de systèmes autonomes basés sur l'IA doivent collaborer étroitement avec des experts en acquisition. L'armée de l'air américaine prévoit d'investir environ 5,8 milliards de dollars dans la construction de jusqu'à 2 000 drones sans pilote équipés d'intelligence artificielle, destinés à opérer en tandem avec des pilotes humains. Ces drones, appelés Valkyrie, sont conçus pour des missions telles que la surveillance, le réapprovisionnement, et la possibilité de former des essaims pour coopérer avec des pilotes humains, chaque drone étant évalué à environ 3 millions de dollars.
Le général de brigade Scott Cain, commandant de l'AFRL, a souligné l'importance de l'IA dans les futures opérations militaires, déclarant que « l'IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l'image opérationnelle et prendre des décisions ». Il a également souligné que l'IA, les opérations autonomes, et les équipes homme-machine évoluent rapidement, nécessitant une collaboration coordonnée entre les partenaires gouvernementaux, universitaires, et industriels.
Le projet vise à développer des « avions de combat collaboratifs » qui amélioreront les systèmes d'armes avec équipage pour assurer la supériorité aérienne. Cependant, le Congrès doit encore approuver le budget de 5,8 milliards de dollars sur cinq ans alloué à la construction de cette flotte de drones. Plus tôt dans le mois, le colonel Tucker Hamilton du département de l'armée de l'air a annoncé avec succès le premier vol contrôlé par l'IA du drone XQ-58A Valkyrie, un événement historique.
Le 25 juillet 2023, le laboratoire de recherche de l'armée de l'air a réalisé un vol réussi de trois heures, démontrant le premier vol d'agents d'intelligence artificielle contrôlant le drone sans pilote XQ-58A Valkyrie. Cette réalisation découle de deux années de collaboration débutée avec le programme Skyborg Vanguard.
Le colonel Tucker Hamilton a expliqué que cette mission avait testé avec succès un cadre de sécurité multicouche sur un drone piloté par l'IA/ML, démontrant ainsi la capacité d'un agent d'IA/ML à résoudre des problèmes tactiques lors d'opérations aéroportées. Cette sortie ouvre la voie au développement d'agents d'IA/ML capables d'exécuter des compétences air-air et air-surface modernes, immédiatement transférables au programme CCA. Les algorithmes ont été développés par l'équipe AFRL Autonomous Air Combat Operations, perfectionnés au cours de millions d'heures de simulation et d'événements d'essais sur le terrain.
L'année dernière, les médias ont rapporté que les présidents Joe Biden et Xi Jinping étaient sur le point de s'engager à interdire l'utilisation de l'intelligence artificielle dans les armes autonomes, telles que les drones, ainsi que dans le contrôle et le déploiement des ogives nucléaires. Les risques associés à l'intelligence artificielle devraient être au centre des discussions entre les États-Unis et la Chine, qui se déroulent en marge du sommet de la Coopération économique Asie-Pacifique de cette année à San Francisco. Les deux nations ont exprimé leur préoccupation quant à l'utilisation non réglementée de cette technologie dans les conflits.
Alors que l'Armée populaire de libération (APL) chinoise aspire à devenir une « armée de classe mondiale », ses progrès dans les systèmes d'armes avancés suscitent des inquiétudes parmi ses voisins et concurrents. L'industrie de la défense chinoise a effectué d'importants investissements dans l'intelligence artificielle (IA).
Selon les informations disponibles publiquement, la direction que prend l'Armée populaire de libération dans le développement et l'utilisation de systèmes d'armes autonomes dotés d'IA/ML demeure incertaine. La maturité de ces capacités, ainsi que la question de savoir si, quand et dans quelle mesure des systèmes d'armes avec un haut niveau d'autonomie ont été déployés, ne peuvent actuellement être évaluées avec une grande confiance.
Cependant, alors que la compétition technologique devient un élément clé de la rivalité entre grandes puissances, il est évident que l'armée et l'industrie de la défense chinoises sont activement engagées dans la recherche, le développement et l'expérimentation. Les progrès de la Chine dépendront de sa capacité à opérationnaliser ces systèmes émergents, impliquant la résolution des défis technologiques, organisationnels, d'essais, de formation et de concepts opérationnels actuels.
Les avancées chinoises en autonomie et en systèmes d'armes dotés d'IA pourraient influencer l'équilibre militaire et accroître les menaces pour la sécurité mondiale et la stabilité stratégique à mesure que la rivalité entre grandes puissances s'intensifie. En cherchant à obtenir un avantage technologique, l'armée chinoise pourrait être tentée de déployer des systèmes d'armes non testés, peu fiables ou insuffisamment sécurisés dans des conditions opérationnelles réelles.
L'épineuse question des « robots tueurs » : entre sécurité et préoccupations éthiques
En unissant les avancées de l'intelligence artificielle et de la robotique, les forces armées américaines, ainsi que d'autres puissances, sont actuellement engagées dans le développement intensif de systèmes d'armes autonomes et autoguidés. Ces dispositifs, qualifiés de « robots tueurs » par les critiques, englobent divers engins tels que des avions, des chars, des navires et des sous-marins sans équipage, conçus pour opérer de manière autonome. Parmi les projets en cours, l'armée de l'air américaine travaille sur un « avion de combat collaboratif », un drone aérien destiné à participer à des missions à haut risque en tandem avec des avions pilotés. De même, l'armée de terre teste des véhicules terrestres autonomes sans pilote, tandis que la marine explore des navires de surface et des sous-marins sans pilote.
L'émergence imminente de ces engins automatisés suscite des inquiétudes et des controverses mondiales. Certains pays cherchent déjà à les interdire complètement, tandis que d'autres, comme les États-Unis, envisagent de ne permettre leur utilisation que dans des conditions strictement supervisées par des humains. À Genève, un groupe d'États a tenté d'interdire ces armes autonomes en se basant sur un traité des Nations unies datant de 1980, la Convention sur certaines armes classiques, visant à réguler les munitions non nucléaires jugées particulièrement dangereuses pour les civils. Parallèlement, l'Assemblée générale des Nations unies a entamé des discussions sur les armes autonomes à New York, avec un examen complet prévu à l'automne.
Le débat sur l'utilisation de ces dispositifs sur le champ de bataille se concentre principalement sur la question de leur habilitation à prendre des vies humaines sans surveillance directe. Des organisations religieuses et de la société civile soutiennent l'interdiction de ces systèmes, craignant leur incapacité à distinguer les combattants des civils, une préoccupation conforme au droit humanitaire international. Les responsables américains, quant à eux, soutiennent que ces armes peuvent être conçues pour respecter les contraintes légales.
Une préoccupation sous-jacente, non encore abordée dans le débat, concerne la possibilité future de communication autonome entre ces machines intelligentes, leur permettant d'élaborer leurs propres tactiques sans intervention humaine. Ce concept de « comportement émergent », défini par les informaticiens, expose à divers dangers non encore pris en compte par les responsables à Genève, Washington ou aux Nations unies. Actuellement, la plupart des armes autonomes développées par l'armée américaine sont des versions sans pilote des plates-formes existantes, opérant en coordination avec des équivalents pilotés, au sein d'équipes de combat « en réseau », supervisées par des commandants humains.
Les risques inexplores des systemes d'armes autonomes : mises en garde d'experts
Les responsables militaires et diplomatiques de haut niveau aux États-Unis insistent sur la possibilité d'utiliser l'intelligence artificielle sans courir de risques futurs, affirmant que le pays se limitera à des dispositifs intégrant des protections adéquates contre tout comportement potentiellement dangereux. Cet engagement est au cœur de la « Déclaration politique sur l'utilisation militaire responsable de l'intelligence artificielle et de l'autonomie » émise par le département d'État en février 2023. Néanmoins, des experts en sécurité et technologie de renom restent prudents face aux risques liés aux comportements émergents des futures armes robotiques, continuant de mettre en garde contre une adoption précipitée de l'IA dans les conflits.
Le rapport final de la Commission de sécurité nationale sur l'intelligence artificielle, paru en février 2021, présente un intérêt particulier. Sous la coprésidence de Robert Work, récemment...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.