IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des « robots tueurs » équipés d'IA constitueraient l'avenir de la guerre
Ces systèmes d'armes étant capables de prendre des décisions de manière autonome, sans supervision humaine

Le , par Bruno

10PARTAGES

4  0 
L'émergence de « robots tueurs » autonomes dotés d'intelligence artificielle (IA), qui pourraient révolutionner le paysage de la guerre préocupe. Ces systèmes d'armes automatisés, en cours de développement par les grandes puissances telles que les États-Unis, sont capables de prendre des décisions létales de manière autonome, sans supervision humaine. Les premiers équivalents de ces « robots tueurs » ont déjà été déployés sur des champs de bataille en Ukraine et à Gaza, démontrant leur efficacité et leur potentiel destructeur.

L'utilisation de drones autonomes, de navires sans pilote et de véhicules terrestres autonomes soulève des préoccupations éthiques et de sécurité. La capacité de ces machines à faire la distinction entre combattants et civils sur le champ de bataille est remise en question, suscitant des inquiétudes quant aux violations du droit humanitaire international. Certains pays, notamment les États-Unis, envisagent de réglementer strictement l'utilisation de ces armes, tandis que d'autres cherchent à les interdire complètement.


Une approche alternative envisage la formation d'essaims de robots interconnectés, capables de communiquer entre eux et de prendre collectivement des décisions tactiques. Cependant, le rapport met en garde contre les risques liés à des comportements émergents, où ces machines pourraient agir de manière imprévisible et potentiellement dangereuse, échappant au contrôle humain. Ces comportements émergents pourraient entraîner des conséquences graves, telles que des actes d'escalade non intentionnels, la destruction d'infrastructures civiles ou des interférences avec des opérations militaires cruciales.


Malgré les assurances des responsables américains quant à la capacité de contrôler ces armes autonomes, le rapport souligne la nécessité de prendre des mesures pour réduire les risques potentiels associés à leur utilisation. Le débat sur l'utilisation de ces dispositifs se concentre principalement sur la question de savoir s'ils peuvent être habilités à prendre des vies humaines sans surveillance humaine, suscitant des inquiétudes au sein de la société civile et des organisations religieuses.

Les experts mettent en garde contre les dangers potentiels de comportements émergents qui pourraient échapper au contrôle humain, entraînant des conséquences imprévisibles et potentiellement dévastatrices sur le champ de bataille. La nécessité d'une réglementation stricte et de mesures visant à réduire les risques est soulignée, tout en soulignant que l'humanité doit rester vigilante face à l'évolution rapide de la technologie militaire.

En août dernier, le département de la Défense des États-Unis a pris l'engagement de recourir à l'Intelligence Artificielle de manière responsable. Afin d'atteindre cet objectif, les développeurs et utilisateurs de systèmes autonomes basés sur l'IA doivent collaborer étroitement avec des experts en acquisition. L'armée de l'air américaine prévoit d'investir environ 5,8 milliards de dollars dans la construction de jusqu'à 2 000 drones sans pilote équipés d'intelligence artificielle, destinés à opérer en tandem avec des pilotes humains. Ces drones, appelés Valkyrie, sont conçus pour des missions telles que la surveillance, le réapprovisionnement, et la possibilité de former des essaims pour coopérer avec des pilotes humains, chaque drone étant évalué à environ 3 millions de dollars.

Le général de brigade Scott Cain, commandant de l'AFRL, a souligné l'importance de l'IA dans les futures opérations militaires, déclarant que « l'IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l'image opérationnelle et prendre des décisions ». Il a également souligné que l'IA, les opérations autonomes, et les équipes homme-machine évoluent rapidement, nécessitant une collaboration coordonnée entre les partenaires gouvernementaux, universitaires, et industriels.

Le projet vise à développer des « avions de combat collaboratifs » qui amélioreront les systèmes d'armes avec équipage pour assurer la supériorité aérienne. Cependant, le Congrès doit encore approuver le budget de 5,8 milliards de dollars sur cinq ans alloué à la construction de cette flotte de drones. Plus tôt dans le mois, le colonel Tucker Hamilton du département de l'armée de l'air a annoncé avec succès le premier vol contrôlé par l'IA du drone XQ-58A Valkyrie, un événement historique.

Le 25 juillet 2023, le laboratoire de recherche de l'armée de l'air a réalisé un vol réussi de trois heures, démontrant le premier vol d'agents d'intelligence artificielle contrôlant le drone sans pilote XQ-58A Valkyrie. Cette réalisation découle de deux années de collaboration débutée avec le programme Skyborg Vanguard.

Le colonel Tucker Hamilton a expliqué que cette mission avait testé avec succès un cadre de sécurité multicouche sur un drone piloté par l'IA/ML, démontrant ainsi la capacité d'un agent d'IA/ML à résoudre des problèmes tactiques lors d'opérations aéroportées. Cette sortie ouvre la voie au développement d'agents d'IA/ML capables d'exécuter des compétences air-air et air-surface modernes, immédiatement transférables au programme CCA. Les algorithmes ont été développés par l'équipe AFRL Autonomous Air Combat Operations, perfectionnés au cours de millions d'heures de simulation et d'événements d'essais sur le terrain.

L'année dernière, les médias ont rapporté que les présidents Joe Biden et Xi Jinping étaient sur le point de s'engager à interdire l'utilisation de l'intelligence artificielle dans les armes autonomes, telles que les drones, ainsi que dans le contrôle et le déploiement des ogives nucléaires. Les risques associés à l'intelligence artificielle devraient être au centre des discussions entre les États-Unis et la Chine, qui se déroulent en marge du sommet de la Coopération économique Asie-Pacifique de cette année à San Francisco. Les deux nations ont exprimé leur préoccupation quant à l'utilisation non réglementée de cette technologie dans les conflits.

Alors que l'Armée populaire de libération (APL) chinoise aspire à devenir une « armée de classe mondiale », ses progrès dans les systèmes d'armes avancés suscitent des inquiétudes parmi ses voisins et concurrents. L'industrie de la défense chinoise a effectué d'importants investissements dans l'intelligence artificielle (IA).

Selon les informations disponibles publiquement, la direction que prend l'Armée populaire de libération dans le développement et l'utilisation de systèmes d'armes autonomes dotés d'IA/ML demeure incertaine. La maturité de ces capacités, ainsi que la question de savoir si, quand et dans quelle mesure des systèmes d'armes avec un haut niveau d'autonomie ont été déployés, ne peuvent actuellement être évaluées avec une grande confiance.

Cependant, alors que la compétition technologique devient un élément clé de la rivalité entre grandes puissances, il est évident que l'armée et l'industrie de la défense chinoises sont activement engagées dans la recherche, le développement et l'expérimentation. Les progrès de la Chine dépendront de sa capacité à opérationnaliser ces systèmes émergents, impliquant la résolution des défis technologiques, organisationnels, d'essais, de formation et de concepts opérationnels actuels.

Les avancées chinoises en autonomie et en systèmes d'armes dotés d'IA pourraient influencer l'équilibre militaire et accroître les menaces pour la sécurité mondiale et la stabilité stratégique à mesure que la rivalité entre grandes puissances s'intensifie. En cherchant à obtenir un avantage technologique, l'armée chinoise pourrait être tentée de déployer des systèmes d'armes non testés, peu fiables ou insuffisamment sécurisés dans des conditions opérationnelles réelles.

L'épineuse question des « robots tueurs » : entre sécurité et préoccupations éthiques

En unissant les avancées de l'intelligence artificielle et de la robotique, les forces armées américaines, ainsi que d'autres puissances, sont actuellement engagées dans le développement intensif de systèmes d'armes autonomes et autoguidés. Ces dispositifs, qualifiés de « robots tueurs » par les critiques, englobent divers engins tels que des avions, des chars, des navires et des sous-marins sans équipage, conçus pour opérer de manière autonome. Parmi les projets en cours, l'armée de l'air américaine travaille sur un « avion de combat collaboratif », un drone aérien destiné à participer à des missions à haut risque en tandem avec des avions pilotés. De même, l'armée de terre teste des véhicules terrestres autonomes sans pilote, tandis que la marine explore des navires de surface et des sous-marins sans pilote.

L'émergence imminente de ces engins automatisés suscite des inquiétudes et des controverses mondiales. Certains pays cherchent déjà à les interdire complètement, tandis que d'autres, comme les États-Unis, envisagent de ne permettre leur utilisation que dans des conditions strictement supervisées par des humains. À Genève, un groupe d'États a tenté d'interdire ces armes autonomes en se basant sur un traité des Nations unies datant de 1980, la Convention sur certaines armes classiques, visant à réguler les munitions non nucléaires jugées particulièrement dangereuses pour les civils. Parallèlement, l'Assemblée générale des Nations unies a entamé des discussions sur les armes autonomes à New York, avec un examen complet prévu à l'automne.

Le débat sur l'utilisation de ces dispositifs sur le champ de bataille se concentre principalement sur la question de leur habilitation à prendre des vies humaines sans surveillance directe. Des organisations religieuses et de la société civile soutiennent l'interdiction de ces systèmes, craignant leur incapacité à distinguer les combattants des civils, une préoccupation conforme au droit humanitaire international. Les responsables américains, quant à eux, soutiennent que ces armes peuvent être conçues pour respecter les contraintes légales.

Une préoccupation sous-jacente, non encore abordée dans le débat, concerne la possibilité future de communication autonome entre ces machines intelligentes, leur permettant d'élaborer leurs propres tactiques sans intervention humaine. Ce concept de « comportement émergent », défini par les informaticiens, expose à divers dangers non encore pris en compte par les responsables à Genève, Washington ou aux Nations unies. Actuellement, la plupart des armes autonomes développées par l'armée américaine sont des versions sans pilote des plates-formes existantes, opérant en coordination avec des équivalents pilotés, au sein d'équipes de combat « en réseau », supervisées par des commandants humains.

Les risques inexplores des systemes d'armes autonomes : mises en garde d'experts

Les responsables militaires et diplomatiques de haut niveau aux États-Unis insistent sur la possibilité d'utiliser l'intelligence artificielle sans courir de risques futurs, affirmant que le pays se limitera à des dispositifs intégrant des protections adéquates contre tout comportement potentiellement dangereux. Cet engagement est au cœur de la « Déclaration politique sur l'utilisation militaire responsable de l'intelligence artificielle et de l'autonomie » émise par le département d'État en février 2023. Néanmoins, des experts en sécurité et technologie de renom restent prudents face aux risques liés aux comportements émergents des futures armes robotiques, continuant de mettre en garde contre une adoption précipitée de l'IA dans les conflits.

Le rapport final de la Commission de sécurité nationale sur l'intelligence artificielle, paru en février 2021, présente un intérêt particulier. Sous la coprésidence de Robert Work, récemment revenu au CNAS après son service au Pentagone, et d'Eric Schmidt, ancien PDG de Google, la commission a préconisé l'adoption rapide de l'IA par l'armée américaine pour assurer la victoire dans de futurs conflits avec la Chine et/ou la Russie. Cependant, elle a également émis des inquiétudes quant aux dangers potentiels d'une saturation des champs de bataille par des robots.

Le rapport souligne que l'utilisation mondiale incontrôlée de ces systèmes pourrait entraîner une escalade involontaire des conflits et une instabilité des crises. Les interactions complexes entre les systèmes d'armes autonomes et l'IA sur le champ de bataille, notamment les comportements émergents, posent des problèmes non testés. Face à ces dangers, le rapport conclut que les pays doivent prendre des mesures pour réduire les risques associés à ces systèmes.

Lorsque les principaux défenseurs des armes autonomes soulèvent des préoccupations quant aux dangers involontaires de leur utilisation sur le champ de bataille, cela devrait susciter une réelle inquiétude chez le reste d'entre nous. Même pour ceux qui ne possèdent pas les compétences mathématiques nécessaires pour comprendre le comportement émergent de l'IA, il est évident que l'humanité pourrait être confrontée à un risque significatif si des machines à tuer acquièrent la capacité de penser par elles-mêmes. Bien que l'idée de leur adoption en tant que gardiens de la paix puisse surprendre, leur conception axée sur le combat et le meurtre les incline plutôt à exécuter ces instructions de manière indépendante et extrême.

L'émergence des « robots tueurs » autonomes munis d'intelligence artificielle suscite des inquiétudes quant aux répercussions potentielles sur le paysage de la guerre. Ces armes automatisées, développées par des puissances majeures telles que les États-Unis, sont capables de prendre des décisions létales de manière indépendante, soulevant des préoccupations éthiques et de sécurité. Le déploiement initial de ces engins en Ukraine et à Gaza souligne leur efficacité, mais soulève des questions sur leur capacité à distinguer entre combattants et civils, suscitant des inquiétudes liées aux violations du droit humanitaire international.


L'utilisation de drones, navires et véhicules autonomes soulève des débats sur la nécessité de réglementer strictement leur usage. Certains pays envisagent des restrictions, voire une interdiction totale, tandis que d'autres cherchent à les exploiter de manière stratégique. Une approche alternative propose la formation d'essaims de robots interconnectés, mais cela comporte des risques liés à des comportements émergents imprévisibles.

Malgré les assurances quant au contrôle de ces armes, le rapport souligne les risques potentiels et appelle à des mesures pour les atténuer. Le débat s'intensifie sur la question de permettre à ces dispositifs de prendre des vies humaines sans surveillance humaine, soulevant des préoccupations au sein de la société civile et des organisations religieuses. Les experts mettent en garde contre les dangers des comportements émergents, soulignant la nécessité d'une réglementation stricte et de mesures de réduction des risques. Alors que les forces armées s'efforcent de développer des armes autonomes, le rapport appelle à une vigilance continue face à l'évolution rapide de la technologie militaire.

Sources : AFT, UNODA, U.S. Department of State Human Rights Watch

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Intelligence artificielle et armement : l'armée de l'air américaine veut 6 milliards de dollars pour construire 2 000 drones, dotés d'une intelligence artificielle

Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses, selon un projet de politique approuvé à l'unanimité par le conseil de surveillance de la ville

San Francisco va permettre à la police de déployer des robots capables de tuer des humains et ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/03/2024 à 10:59
Des experts en intelligence artificielle, tant occidentaux que chinois, ont conjointement établi des « lignes rouges » pour circonscrire les dangers potentiels inhérents à l'IA, définissant ainsi les territoires à ne pas franchir pour éviter des risques existentiels.

Et ces mêmes experts se feront un plaisir de développer les armes équipées d'IA à la demande de leur état respectif sans se préoccuper le moins du monde de la moindre "ligne rouge"!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/03/2024 à 20:53
Citation Envoyé par Bruno Voir le message
Quel est votre avis sur le sujet ?
Il ne va pas y avoir une nouvelle guerre froide, il va y avoir une guerre tout court.
Que ce soit légal ou illégal, les USA et la Chine développeront toutes les solutions technologique capable de leur donner un avantage.

Ils disent que la ligne rouge c'est notamment :
- la création d'armes biologiques
- le lancement de cyberattaques
Je trouve ça bizarre comme exemples.

En temps de guerre il n'y a pas de règle. (le gagnant ne sera pas sanctionné)
Des pays vont concevoir des armes de destruction massive et vont violer les conventions sur les armes biologiques ou chimique.

Ils sont marrant quand ils parlent d'efforts déployés pendant la guerre froide pour éviter les guerres nucléaires, aujourd'hui plein de pays ont des armes nucléaires et ne devraient pas en avoir.
Bon après c'est une défense (mutually assured destruction), tu m'envoies une bombe, je t'envoie une bombe, on est tous mort, donc tu ne vas pas m'envoyer de bombe et je ne vais pas t'envoyer de bombe.

Je trouve que c'est un peu naïf de croire que des superpuissances comme les USA vont se mettre à respecter les règles.
Il y a quand même beaucoup à gagner, beaucoup à perdre.
Donc là faut faire comme les champions et se doper, "les autres le font, donc je dois le faire".

=======
L'ambiance va ressembler à ça :
L'arme biologique, une vieille histoire
En 1943, l'armée américaine entame la construction d'un complexe de recherche et développement d'armes biologiques à Camp Detrick, dans le Maryland (rebaptisé depuis Fort Detrick). Le programme est rapidement renforcé pour contrer les recherches de l'Allemagne nazie et du Japon. Les travaux américains portent sur la mise au point de bombes à fragmentation capables de disséminer des projectiles contenant du charbon. D'autres travaux portent sur la toxine du botulisme. En 1944, les responsables du programme d'armes biologiques réclament des moyens pour fabriquer un million de bombes au charbon par mois.

Moustiques. A la fin de la guerre, les Etats-Unis mettent leur programme en veilleuse. En 1946, le ministère de la Guerre reconnaît publiquement l'existence de son programme de recherche sur les armes biologiques. Deux ans plus tard, un rapport souligne la vulnérabilité du pays, notamment en cas d'attaque subversive contre les réseaux d'eau et les métros. En Chine, 1000 à 3000 prisonniers des Japonais seraient décédés pendant la guerre lors d'expériences d'inhalation du charbon dans l'unité 731 de l'Armée impériale, chargée de la guerre bactériologique. Après 1945, les Etats-Unis accordent l'impunité au général japonais Ishii qui dirigeait l'unité 731 et à quelques-uns de ses chercheurs et récupèrent en échange leur savoir-faire.

Face à la menace soviétique, les Etats-Unis décident en 1950 de construire une usine de fabrication d'armes biologiques. La production démarre en décembre 1953. Sept agents biologiques seront fabriqués entre 1954 et 1967, dont le bacille du charbon.
À la fin de la guerre, les USA n'ont pas dit "les scientifiques Nazis doivent être condamné", ils ont dit "il faut qu'on embauche un maximum de scientifiques Nazis".
Opération Paperclip
L’opération Paperclip (originellement appelée « Opération Overcast ») fut menée à la fin de la Seconde Guerre mondiale par l'état-major de l'armée des États-Unis afin d'exfiltrer et de recruter près de 1 500 scientifiques allemands issus du complexe militaro-industriel de l'Allemagne nazie pour lutter contre l'URSS et récupérer les armes secrètes du Troisième Reich.
======
Pour la blague j'ai envie de dire qu'il est possible que le problème d'électricité du porte-conteneurs qui a détruit le pont Francis Scott Key de Baltimore soit mis sur le dos d'une cyberattaque chinoise.
3  4