IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Intelligence artificielle et armement : l'armée de l'air américaine veut 6 milliards de dollars pour construire 2 000 drones,
Dotés d'une intelligence artificielle

Le , par Bruno

11PARTAGES

4  0 
Le département de la Défense des États-Unis s’est engagé à utiliser l’Intelligence Artificielle de manière responsable. Pour y parvenir, les développeurs et les utilisateurs de l’autonomie basée sur l’IA doivent travailler en collaboration avec des spécialistes de l’acquisition. L’armée de l’air américaine prévoit de dépenser environ 5,8 milliards de dollars pour construire jusqu’à 2 000 drones sans pilote dotés d’une intelligence artificielle qui serviront aux côtés des pilotes humains. Les drones Valkyrie sont conçus pour remplir des fonctions telles que la surveillance ou les opérations de réapprovisionnement, ou pour se regrouper en essaims afin de combattre aux côtés de pilotes humains. Les drones coûteraient environ 3 millions de dollars chacun.

Le général de brigade Scott Cain, commandant de l’AFRL a déclaré : « L’IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l’image opérationnelle et prendre des décisions ». Il a également ajouté que « L’IA, les opérations autonomes et les équipes homme-machine continuent d’évoluer à un rythme sans précédent et nous avons besoin des efforts coordonnés de nos partenaires gouvernementaux, universitaires et industriels pour suivre le mouvement ».


Le projet vise à développer des « avions de combat collaboratifs […] capables d’améliorer les systèmes d’armes avec équipage pour atteindre la supériorité aérienne ». Le Congrès doit approuver l’effort quinquennal de construction de la flotte de drones, dont le budget s’élève à 5,8 milliards de dollars sur cette période. Au début du mois, le colonel Tucker Hamilton, chef d'opérations d'IA du département de l'armée de l'air, a indiqué que la branche aérienne de l'armée américaine avait fait voler le drone XQ-58A Valkyrie de 9,15 mètres de long pendant trois heures lors d'un test de vol contrôlé par l'IA, le premier du genre.

Le 25 juillet 2023, le laboratoire de recherche de l'armée de l'air a effectué avec succès une sortie de trois heures, démontrant le tout premier vol d'agents d'intelligence artificielle (algorithmes) contrôlant un avion sans équipage XQ-58A Valkyrie. Ce vol, qui s'est déroulé sur le complexe d'essai et d'entraînement d'Eglin, était l'aboutissement de deux années de partenariat qui ont débuté avec le programme Skyborg Vanguard.

« La mission a permis de tester un cadre de sécurité multicouche sur un avion sans équipage piloté par l'IA/ML et de démontrer qu'un agent de l'IA/ML résout un problème tactique pertinent au cours d'opérations aéroportées », a déclaré le colonel Tucker Hamilton. « Cette sortie permet officiellement de développer des agents d'IA/ML capables d'exécuter des compétences air-air et air-surface modernes, immédiatement transférables au programme CCA.

Les algorithmes ont été développés par l'équipe AFRL Autonomous Air Combat Operations. Ils ont été perfectionnés au cours de millions d'heures de simulation haute fidélité, de sorties sur le X-62 VISTA, d'événements Hardware-in-the-Loop avec le XQ-58A et d'opérations d'essai au sol, comme le montre la vidéo en lien ci-dessous.


« AACO a adopté une approche multidimensionnelle pour les essais en vol sans équipage de l'intelligence artificielle à apprentissage automatique et a atteint les objectifs d'expérimentation opérationnelle en utilisant une combinaison de calcul haute performance, de modélisation et de simulation, et d'essais en boucle du matériel pour entraîner un agent d'intelligence artificielle à piloter en toute sécurité l'avion XQ-58 sans équipage », a déclaré Terry Wilson, directeur du programme AACO.

Autonomous Air Combat Operations (AACO), et Air Combat Evolution (ACE) sont des programmes axés sur le développement de l'autonomie pilotée par l'IA pour les plateformes tactiques aéroportées. L'objectif du programme AACO est de développer et de faire voler un pilote automatique piloté par l'IA capable d'exécuter des fonctions d'orientation et de navigation ainsi que des comportements autonomes tels que le renseignement, la surveillance et la reconnaissance avancés et le combat BVR.

Le programme ACE de l'Agence pour les projets de recherche avancée de la défense (DARPA) vise à développer une autonomie de confiance, évolutive, de niveau humain, pilotée par l'IA pour le combat aérien en utilisant le combat de chiens collaboratif entre l'homme et la machine comme problème à résoudre. Les deux programmes reconnaissent la valeur et la nécessité piloté le simulateur de vol à stabilité variable X-62A (VISTA) et d'autres simulateurs similaires, qui sont essentiels à la maturation des capacités d'autonomie pilotée par l'IA et à la conception de nouveaux modèles de véhicules sans équipage, a déclaré le responsable de l'expérimentation.

Les agents d’IA pilotent avec succès un avion de chasse réel lors d’essais en vol historiques

Une équipe conjointe du département de la Défense des États-Unis a effectué 12 essais en vol au cours desquels des agents d'intelligence artificielle (IA) ont piloté le X-62A pour effectuer des manœuvres de combat avancées sur la base aérienne d'Edwards, en Californie, du 1er au 16 décembre 2022. Les organisations de soutien comprennent le Centre d'essai de l'armée de l'air américaine, le Laboratoire de recherche de l'armée de l'air (AFRL) et la DARPA.

« Il s'agissait d’une première historique dans la démonstration de capacités d'IA tactique avancée sur un avion de chasse réel », a déclaré le commandant de l'AFRL, le général de division Heather Pringle. « Le partenariat solide avec la DARPA et l'AFTC a rendu cette réalisation possible et est essentiel à l'avancement de nos capacités. » Les agents autonomes de l'AFRL, AACO, et de la DARPA, ACE, ont piloté le X-62A VISTA de l'école de pilotes d'essai de l'armée de l'air américaine afin d'effectuer des manœuvres de combat avancées. Les agents IA de l'AACO ont effectué des engagements un contre un au-delà de la portée visuelle, ou BVR, contre un adversaire simulé, et les agents IA de l'ACE ont effectué des manœuvres à portée visuelle, connues sous le nom de dogfight, contre des agents IA constructifs de l'équipe rouge.

Les agents d'IA des deux équipes ont exécuté des manœuvres tactiques autonomes tout en respectant les limites de l'espace aérien réel et en optimisant les performances des aéronefs. Ces essais s'appuient sur la mise à jour VISTA du X-62A, qui permet au X-62 d'être contrôlé par des algorithmes d'autonomie pilotés par l'IA.

Le X-62A VISTA accélère les tests d’autonomie tactique

Dans plusieurs cas, les pilotes ont effectué les tests ACE et AACO à quelques heures d'intervalle, après que les ingénieurs ont changé les algorithmes d'autonomie à bord du X-62A en quelques minutes. « Le X-62A accélère rapidement la vitesse à laquelle les algorithmes d'autonomie sont testés », a déclaré un fonctionnaire au fait de l'expérimentation. « La mise à jour X-62A VISTA Gen2020 a transformé le NF-16D VISTA en X-62A VISTA pour soutenir les tests d'autonomie tels que cette campagne d'essais. »

Le fonctionnaire a déclaré que les changements rapides qui peuvent être réalisés en toute sécurité sur le VISTA permettent aux chercheurs de réagir rapidement aux enseignements tirés, en améliorant les capacités pendant les fenêtres d'essai. « L'équipe du X-62A VISTA a prouvé avec cette campagne d'essais qu'elle était capable de mener des missions complexes d'essais d'IA qui accélèrent le développement et les essais de capacités d'autonomie pour le ministère de la défense », a déclaré Malcolm Cotting, directeur de la recherche à l'école des pilotes d'essai de l'armée de l'air des États-Unis.

Malcolm Cotting a déclaré que l'équipe VISTA continuerait à soutenir les essais d'autonomie avancée et à faire progresser les essais en vol. « Le X-62 est un accélérateur d'essais en vol », a déclaré le responsable de l'expérimentation. « Il permet à l'USAF d'exécuter rapidement des algorithmes d'autonomie tactique. Ces essais génèrent des données qui sont utilisées pour améliorer les algorithmes et les modèles à un rythme remarquablement rapide », a-t-il ajouté.

« Après avoir formé nos agents d'autonomie pilotés par l'IA à l'aide de calculs de haute performance, de modélisation et de simulation, il est essentiel que nous fassions voler ces agents pour valider la différence entre le simulateur et les vols réels », a déclaré un responsable de l'AACO. Disposer d'un avion comme le X-62 est essentiel pour tester rapidement en vol ces comportements autonomes.

La conception du système de sécurité du X-62 est essentielle pour accélérer les tests d'autonomie, a ajouté le responsable de l'AACO. L'équipe de l'AACO peut faire voler, tester et mettre à jour les agents en fonction des données de vol, puis faire voler à nouveau les nouveaux agents IA en quelques heures, sans rencontrer de problèmes de navigabilité ou de sécurité.


« Dans tous les domaines, la recherche ne progresse que si les outils le permettent », a déclaré le lieutenant-colonel Ryan Hefron, responsable du programme ACE de la DARPA. « La récente mise à jour de VISTA en fait un simulateur d'essai beaucoup plus efficace en permettant une intégration rapide et des tests sûrs de l'autonomie pilotée par l'IA. Cela nous a permis d'accélérer d'au moins un an les essais en vol à grande échelle de l'autonomie pilotée par l'IA », a-t-il déclaré.

Le ministère de la Défense s'est engagé à utiliser l'IA de manière responsable. Pour parvenir à une utilisation responsable de l'IA, il faut que les développeurs et les utilisateurs de l'autonomie basée sur l'IA travaillent en collaboration avec des spécialistes de l'acquisition.

Si le général de brigade Scott Cain affirme que l'IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l'image opérationnelle et prendre des décisions, il est important de noter que l’utilisation de l’IA dans les drones militaires peut avoir des conséquences imprévues et potentiellement dangereuses. Les drones peuvent être utilisés pour des missions de surveillance et de reconnaissance, mais ils peuvent également être utilisés pour des missions de combat.

Les drones autonomes peuvent prendre des décisions sans intervention humaine, ce qui soulève des questions éthiques et juridiques. Il est donc important que les gouvernements et les militaires travaillent en étroite collaboration avec les spécialistes de l’IA pour s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique.

Sources : Eglin air force, Air Force Research Laboratory, Department of Defense

Et vous ?

À votre avis, comment les gouvernements peuvent-ils s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique ?

Comment les militaires peuvent-ils s’assurer que les drones autonomes prennent des décisions éthiques et responsables ?

Quels sont selon vous, les risques potentiels de l’utilisation de l’IA dans les drones militaires ?

Comment les spécialistes de l’IA peuvent-ils travailler avec les gouvernements et les militaires pour garantir une utilisation responsable de l’IA dans les drones militaires ?

Voir aussi :

L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle

Cockpit du F-35 : un pilote révèle que l'utilisation de l'écran tactile présente quelques difficultés, avec un taux d'erreur de 20 % lors de l'activation d'une fonction

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 04/12/2023 à 17:18
S'il en sont aux discussions publiques, c'est que dans les faits, le projet est beaucoup plus avancé que ce qui est dit. De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.
5  2 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 04/12/2023 à 17:19
Ce qui soulève des préoccupations d'ordre éthique
A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
Il n'y à qu'a voir ce qui se passe actuellement en Ukraine , en Israel (pour les conflits les plus médiatisés) où l'éthique est omni présente .
Guerre à "l'ancienne" ou guerre "moderne" l'éthique n'a pas eu , n'a pas et n'aura jamais son mot à dire dans la guerre .
La violence humaine est à l'aulne de sa connerie et comme la connerie est infinie ...
Se faire massacrer par un soldat avec remords ou sans remord quelle différence ?
Ah si bien sur les gouvernements n'auront pas prendre les séquelles post traumatiques à leur charge , et à payer des pensions ...
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/12/2023 à 7:26
Citation Envoyé par OrthodoxWindows Voir le message
Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?
Oui ce sont des gentils, ils n'aiment pas les méchants et seront donc heureux d'empêcher qu'ils fassent des choses de méchants.
Que pensent ils de la diplomatie? Moi non plus je n'ai jamais compris cette passion pour les dinosaures et les chiffres....
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 05/12/2023 à 13:34
C'est un kasting pour un remake de l’homme qui valait 3 milliards ?

Ou ils essaient juste de faire peur aux vilains, avec des hommes de paille alias des épouvantails ?

Tout ceci me parait totalement irréaliste...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 01/09/2023 à 9:34
Citation Envoyé par Bruno Voir le message
À votre avis, comment les gouvernements peuvent-ils s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique ?
L'important c'est de gagner la guerre, ce n'est pas d'être ethique.
Les gagnants ne sont pas jugés, les USA ne se sont jamais excusé pour avoir largué des bombes atomiques et du Napalm sur des civils.

Citation Envoyé par Bruno Voir le message
Comment les militaires peuvent-ils s’assurer que les drones autonomes prennent des décisions éthiques et responsables ?
Le problème ce n'est pas les décisions que prennent les drones autonomes, le problème c'est les ordres qu'ils recoivent.

====
Pour les USA il y a un côté positif à l'utilisation de drone autonome, c'est qu'il y aura peut-être moins de militaires US qui vont se suicider.
Etats-Unis : pour un soldat mort au combat, 10 vétérans se suicident
22 suicides par jour ! Quand les dernières guerres des Etats-Unis ont coûté la vie à 4488 soldats, la vie civile a vu le suicide de 43.208 hommes et femmes anciens combattants sur 10 ans... Pour un mort sur le terrain, près de 10 anciens combattants se sont donné la mort.
Cette moyenne du nombre de décès quotidiens de vétérans a fait frémir l'Amérique quand elle l'a appris. Près de 950 tentatives par mois.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/12/2023 à 19:34
Citation Envoyé par Cpt Anderson Voir le message
De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.
Si les USA perdent la prochaine guerre mondiale, alors les vainqueurs pourront punir les USA pour leur utilisation d'arme interdite.

Citation Envoyé par olaxius Voir le message
A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
Si tu gagnes la guerre mondiale, ça va (voir les 2 bombes atomiques sur des civils japonais).
Par contre si tu perds tu peux te faire sanctionner.
2  2 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 05/12/2023 à 1:31
Les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent
Ha ouais ????

Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?

1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/12/2023 à 9:39
Citation Envoyé par OrthodoxWindows Voir le message
il s ressentent quelque chose, eux ?
C'est peu probable.
En haut de la hiérarchie des USA, il y a des gens qui ont demandés à ce que soit utilisé un paquet d'armes inhumaines, comme le Napalm, l'Agent Orange, les bombes atomiques, les munitions à l'uranium appauvri, le phosphore blanc, etc.
Ils ont donné l'ordre de tuer des centaines de milliers de civils irakiens. Ils ont foutu la merde un peu partout sur terre.

Ils s'en foutent des conséquences.
Ukraine : Washington enverra des munitions à uranium appauvri, armes perforantes controversées
Elles ont été employées au cours des deux guerres du Golfe de 1991 et 2003 ainsi qu'en ex-Yougoslavie pendant les années 1990.

Le Pentagone a en outre reconnu s'être servi d'obus à l'uranium appauvri à deux reprises en 2015 dans des opérations contre le groupe Etat islamique en Syrie.

Le Royaume-Uni avait déjà annoncé il y a plusieurs mois son intention de livrer des munitions contenant de l'uranium appauvri à l'Ukraine, initiative dénoncée par Moscou.
L'autre chose qui serait intéressant de savoir c'est quelles drogues l'armée US donne à ses soldats.
Pour accepter de suivre les ordres qu'on leur donne, ils doivent être sous produits.

Par exemple on sait que pendant la seconde guerre mondiale les soldats prenaient de la pervitine, en gros c'est de la méthamphétamine.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/12/2023 à 13:49
Citation Envoyé par Mathis Lucas Voir le message
Il a souligné que les stéroïdes font payer un lourd tribut à l'utilisateur et qu'il y a des conséquences à l'augmentation des performances des êtres humains.
Ouais, il n'y a qu'a demandé aux championnes de CrossFit !
Tout le monde sait que ça provoque une hypertrophie du clitoris, une voix plus grave, une augmentation de la pilosité faciale, des troubles menstruels, de l'acné, mais il y a d'autres conséquences.

Citation Envoyé par Mathis Lucas Voir le message
Tout ceci me parait totalement irréaliste...
Avec le budget de l'armée US tout est possible.

Citation Envoyé par Mathis Lucas Voir le message
Ou ils essaient juste de faire peur aux vilains, avec des hommes de paille alias des épouvantails ?
"Vilain" ne fonctionne pas dans ce contexte. Parce que ce sont les USA les vilains dans l'histoire.
Peut-être qu'ennemi ça fonctionnerait.

Après le truc, c'est qu'il faut que ces projets restent secret normalement, sinon d'autres pays vont essayer de faire la même chose.
Pendant la paranoïa de la guerre froide, il y a eu plein d'idées bizarre qui ont été développés, parce que les USA se disaient "si ça trouve l'URSS est en train de développer tel type d'arme, donc il faut qu'on les rattrape".

Quoi qu'il en soit il y a une guerre mondiale qui se prépare, les super puissances vont investir beaucoup dans le développement de technologie militaire.
Il n'y a aucune considération éthique là-dedans.
On parle d'un pays qui a envoyé 2 bombes atomiques sur des civils, et il est prêt à faire pire.
Il n'y a aucune limite.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/06/2024 à 18:46
Citation Envoyé par Patrick Ruiz Voir le message
Êtes-vous surpris par la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Non.
Les IA ont de nombreux avantages par rapport aux humains.
- Elles sont plus performantes.
- Elles suivent les ordres. *
- Il n'y a pas d'histoire de trouble de stress post-traumatique.
- Quand un robot meurt, t'as pas besoin de payer des funérailles.

* : dans le film Running Man, un personnage reçoit l'ordre de tirer sur des civils et il refuse.

Citation Envoyé par Patrick Ruiz Voir le message
Que pensez-vous des divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?
Ils peuvent mettre en place tous les accords mondiaux qu'ils veulent, ils ne seront pas respectés. Est-ce que vous croyez que la convention de Genève est respecté en permanence par ceux qui l'ont signé ?
Il y a une guerre mondiale qui s'approche, les pays cherchent à avoir un avantage sur l'ennemi.
Celui qui gagnera la guerre, ne sera pas condamné. Les USA ne se sont jamais excusé pour avoir lancé 2 bombes atomiques sur des civils japonais.

On ne peut pas empêcher des pays comme les USA de développer des robots tueurs.
Au pire ils le feront en secret, comme ils ont l'habitude de le faire.
0  0