IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'armée de l'air américaine teste un prototype de drone avec un logiciel basé sur l'intelligence artificielle

Le , par Jade Emy

15PARTAGES

8  0 
Il est propulsé en vol par un moteur de fusée. Il peut voler sur une distance égale à la largeur de la Chine. Il est furtif et peut transporter des missiles capables d'atteindre des cibles ennemies bien au-delà de sa portée visuelle. Mais ce qui distingue vraiment l'avion expérimental XQ-58A Valkyrie de l'armée de l'air, c'est qu'il est géré par une intelligence artificielle.

Cela le place à l'avant-garde des efforts déployés par l'armée américaine pour exploiter les capacités d'une technologie émergente dont les vastes avantages potentiels sont tempérés par de profondes inquiétudes quant au degré d'autonomie qu'il convient d'accorder à une arme mortelle. Essentiellement un drone de nouvelle génération, le Valkyrie est un prototype de ce que l'armée de l'air espère voir devenir un puissant complément à sa flotte d'avions de chasse traditionnels, en donnant aux pilotes humains un essaim d'ailerons robotisés hautement compétents à déployer dans la bataille. Sa mission est de combiner l'intelligence artificielle et ses capteurs pour identifier et évaluer les menaces ennemies, puis, après avoir obtenu l'aval d'un pilote, de passer à l'acte...


L'émergence de l'intelligence artificielle contribue à l'émergence d'une nouvelle génération de sous-traitants du Pentagone qui cherchent à saper, ou du moins à perturber, la primauté de longue date de la poignée d'entreprises géantes qui fournissent aux forces armées des avions, des missiles, des chars et des navires. La possibilité de construire des flottes d'armes intelligentes, mais relativement peu coûteuses, qui pourraient être déployées en grand nombre, permet aux responsables du Pentagone de réfléchir à de nouvelles façons d'affronter les forces ennemies.

Le programme Valkyrie donne un aperçu de la manière dont le secteur de l'armement, la culture militaire, les tactiques de combat et la concurrence avec les pays rivaux sont remodelés par les progrès rapides de la technologie. L'acquisition et le maintien d'un avantage en matière d'intelligence artificielle est l'un des éléments d'une course de plus en plus ouverte avec la Chine pour la supériorité technologique en matière de sécurité nationale.

Les planificateurs militaires craignent que l'on ne puisse plus compter sur la combinaison actuelle d'avions et de systèmes d'armes de l'armée de l'air, malgré les milliards de dollars investis dans ces appareils, pour dominer un conflit de grande ampleur avec la Chine, en particulier s'il impliquait une invasion de Taïwan par la Chine. En effet, la Chine équipe ses côtes et les îles artificielles qu'elle a construites en mer de Chine méridionale de plus d'un millier de missiles anti-navires et anti-aériens qui réduisent considérablement la capacité des États-Unis à répondre à une éventuelle invasion de Taïwan sans subir des pertes massives dans les airs et en mer.

"Est-ce une réponse parfaite ? Ce n'est jamais une réponse parfaite lorsque l'on se projette dans l'avenir", a déclaré le général de division R. Scott Jobe, qui, jusqu'à cet été, était chargé de définir les exigences du programme de combat aérien, alors que l'armée de l'air s'efforce d'intégrer l'intelligence artificielle dans ses avions de chasse et ses drones. "Mais vous pouvez poser des dilemmes à vos adversaires potentiels, et l'un de ces dilemmes est la masse", a déclaré le général Jobe lors d'une interview au Pentagone, en faisant référence au déploiement d'un grand nombre de drones contre les forces ennemies. "Il est possible d'apporter de la masse à l'espace de bataille avec potentiellement moins de personnes."

L'armée de l'air se rend compte qu'elle doit également faire face à des préoccupations profondes concernant l'utilisation militaire de l'intelligence artificielle, qu'il s'agisse de la crainte que la technologie ne se retourne contre ses créateurs humains (comme Skynet dans la série de films "Terminator") ou de réticences plus immédiates à l'idée de permettre aux algorithmes de guider l'utilisation de la force meurtrière.

"On franchit une ligne morale en confiant le soin de tuer à des machines, en permettant à des capteurs informatiques plutôt qu'à des humains de prendre des vies humaines", a déclaré Mary Wareham, directrice de la division armes de Human Rights Watch, qui milite pour l'établissement de limites internationales sur les armes dites létalement autonomes.

Une politique récemment révisée du Pentagone sur l'utilisation de l'intelligence artificielle dans les systèmes d'armes autorise l'utilisation autonome de la force létale, mais tout projet de construction ou de déploiement d'une telle arme doit d'abord être examiné et approuvé par un groupe militaire spécial. Les humains continueront à jouer un rôle central dans la nouvelle vision de l'armée de l'air, ont déclaré de hauts responsables du Pentagone, mais ils seront de plus en plus associés à des ingénieurs en logiciel et à des experts en apprentissage automatique, qui affineront constamment les algorithmes régissant le fonctionnement des robots qui voleront à leurs côtés.

Les essais fonctionnels de base du drone n'étaient que la préparation au véritable spectacle, où le Valkyrie va au-delà de l'utilisation d'outils de pilotage automatique avancés et commence à tester les capacités de combat de son intelligence artificielle. Lors d'un test prévu dans le courant de l'année, le drone de combat sera invité à poursuivre puis à tuer une cible ennemie simulée au-dessus du golfe du Mexique, en élaborant sa propre stratégie pour la mission.

Au cours de la phase actuelle, l'objectif est de tester la capacité de vol du Valkyrie et le logiciel d'intelligence artificielle, de sorte que l'aéronef ne transporte aucune arme. Le combat aérien prévu se déroulera avec un ennemi "construit", même si l'agent de l'I.A. à bord du Valkyrie croira qu'il s'agit d'un ennemi réel.

Les responsables estiment qu'il faudra cinq à dix ans pour mettre au point un système de combat aérien basé sur l'intelligence artificielle. Les commandants de l'armée de l'air font pression pour accélérer l'effort, mais reconnaissent que la rapidité ne peut être le seul objectif. "Nous n'y parviendrons pas tout de suite, mais nous y arriverons", a déclaré le général Jobe. "[I]Il s'agit d'une technologie avancée qui s'améliore de jour en jour, au fur et à mesure que l'on continue à former ces algorithmes.

Elle les oblige également à s'interroger sur le rôle que les humains devraient jouer dans les conflits menés avec des logiciels conçus pour tuer. L'article ajoute que l'armée de l'air américaine prévoit de construire 1 000 à 2 000 drones IA pour un coût unitaire de 3 millions de dollars. Certains se concentreront sur des missions de surveillance ou de réapprovisionnement, d'autres voleront en essaims d'attaque et d'autres encore serviront d'"ailier fidèle" à un pilote humain.

Source : The New York Times

Et vous ?

Quel est votre avis sur le sujet ?
Quel est votre avis sur la question morale de donner la décision de vie ou de mort à l'IA ?

Voir aussi :

Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort

Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire. Les critiques notent que cette déclaration n'est pas juridiquement contraignante

Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 30/08/2023 à 16:03
C'est comme cet épisode de Black Mirror :
Metalhead (Black Mirror)
"Metalhead" is filmed in black and white, and it follows the plight of Bella (Maxine Peake) trying to flee from robotic "dogs" after the unexplained collapse of human society. The dogs were influenced by Boston Dynamics' robots such as BigDog. Filming took place in England, with Lidar scans used for scenes from the dog's perspective. Lasting 41 minutes, "Metalhead" is the second-shortest episode behind "Mazey Day".
Les gouvernements qui développent des armes autonomes pourront les utiliser contre leur propre peuple.
En cas de révolution, par exemple si les étasuniens se rebellaient contre l'administration Biden, peut-être que l'armée refuserait de suivre les ordres (mutinerie de la Garde nationale française à Paris en juillet 1789), alors que les armes autonomes en on rien à foutre, elles suivront toujours les ordres.

Les révolutions ont lieu quand l'armée se met du côté du peuple, avec des armes autonomes ça va être plus compliqué de faire des révolutions.
3  0 
Avatar de RxB2038
Membre régulier https://www.developpez.com
Le 30/08/2023 à 16:46
Quand on voit les difficultés que Tesla rencontre avec les voitures autonomes, la question que l'on est en droit de se poser au regard du déploiement des ces technologies c'est "mais qu'est-ce qui pourrais bien merder" ?

Parce qu'une chose est certaine, si ça peut, ça merdera, sauf que les bugs dans le cas de chiens robots armés de fusil d'assaut ou de drones bardés de missiles pilotés par IA, ça peut être un peu plus lourds de conséquences que "mon site web est tombé pendant 30 minutes".

Sans parler des biais racistes dans l'identification des cibles, de la généralisation des ces équipements aux forces anti-émeutes, ni du fait que James Cameron nous avait prévenus
3  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 04/12/2023 à 17:18
S'il en sont aux discussions publiques, c'est que dans les faits, le projet est beaucoup plus avancé que ce qui est dit. De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.
5  2 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 04/12/2023 à 17:19
Ce qui soulève des préoccupations d'ordre éthique
A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
Il n'y à qu'a voir ce qui se passe actuellement en Ukraine , en Israel (pour les conflits les plus médiatisés) où l'éthique est omni présente .
Guerre à "l'ancienne" ou guerre "moderne" l'éthique n'a pas eu , n'a pas et n'aura jamais son mot à dire dans la guerre .
La violence humaine est à l'aulne de sa connerie et comme la connerie est infinie ...
Se faire massacrer par un soldat avec remords ou sans remord quelle différence ?
Ah si bien sur les gouvernements n'auront pas prendre les séquelles post traumatiques à leur charge , et à payer des pensions ...
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/12/2023 à 7:26
Citation Envoyé par OrthodoxWindows Voir le message
Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?
Oui ce sont des gentils, ils n'aiment pas les méchants et seront donc heureux d'empêcher qu'ils fassent des choses de méchants.
Que pensent ils de la diplomatie? Moi non plus je n'ai jamais compris cette passion pour les dinosaures et les chiffres....
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 05/12/2023 à 13:34
C'est un kasting pour un remake de l’homme qui valait 3 milliards ?

Ou ils essaient juste de faire peur aux vilains, avec des hommes de paille alias des épouvantails ?

Tout ceci me parait totalement irréaliste...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 01/09/2023 à 9:34
Citation Envoyé par Bruno Voir le message
À votre avis, comment les gouvernements peuvent-ils s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique ?
L'important c'est de gagner la guerre, ce n'est pas d'être ethique.
Les gagnants ne sont pas jugés, les USA ne se sont jamais excusé pour avoir largué des bombes atomiques et du Napalm sur des civils.

Citation Envoyé par Bruno Voir le message
Comment les militaires peuvent-ils s’assurer que les drones autonomes prennent des décisions éthiques et responsables ?
Le problème ce n'est pas les décisions que prennent les drones autonomes, le problème c'est les ordres qu'ils recoivent.

====
Pour les USA il y a un côté positif à l'utilisation de drone autonome, c'est qu'il y aura peut-être moins de militaires US qui vont se suicider.
Etats-Unis : pour un soldat mort au combat, 10 vétérans se suicident
22 suicides par jour ! Quand les dernières guerres des Etats-Unis ont coûté la vie à 4488 soldats, la vie civile a vu le suicide de 43.208 hommes et femmes anciens combattants sur 10 ans... Pour un mort sur le terrain, près de 10 anciens combattants se sont donné la mort.
Cette moyenne du nombre de décès quotidiens de vétérans a fait frémir l'Amérique quand elle l'a appris. Près de 950 tentatives par mois.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/12/2023 à 19:34
Citation Envoyé par Cpt Anderson Voir le message
De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.
Si les USA perdent la prochaine guerre mondiale, alors les vainqueurs pourront punir les USA pour leur utilisation d'arme interdite.

Citation Envoyé par olaxius Voir le message
A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
Si tu gagnes la guerre mondiale, ça va (voir les 2 bombes atomiques sur des civils japonais).
Par contre si tu perds tu peux te faire sanctionner.
2  2 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 05/12/2023 à 1:31
Les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent
Ha ouais ????

Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?

1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/12/2023 à 9:39
Citation Envoyé par OrthodoxWindows Voir le message
il s ressentent quelque chose, eux ?
C'est peu probable.
En haut de la hiérarchie des USA, il y a des gens qui ont demandés à ce que soit utilisé un paquet d'armes inhumaines, comme le Napalm, l'Agent Orange, les bombes atomiques, les munitions à l'uranium appauvri, le phosphore blanc, etc.
Ils ont donné l'ordre de tuer des centaines de milliers de civils irakiens. Ils ont foutu la merde un peu partout sur terre.

Ils s'en foutent des conséquences.
Ukraine : Washington enverra des munitions à uranium appauvri, armes perforantes controversées
Elles ont été employées au cours des deux guerres du Golfe de 1991 et 2003 ainsi qu'en ex-Yougoslavie pendant les années 1990.

Le Pentagone a en outre reconnu s'être servi d'obus à l'uranium appauvri à deux reprises en 2015 dans des opérations contre le groupe Etat islamique en Syrie.

Le Royaume-Uni avait déjà annoncé il y a plusieurs mois son intention de livrer des munitions contenant de l'uranium appauvri à l'Ukraine, initiative dénoncée par Moscou.
L'autre chose qui serait intéressant de savoir c'est quelles drogues l'armée US donne à ses soldats.
Pour accepter de suivre les ordres qu'on leur donne, ils doivent être sous produits.

Par exemple on sait que pendant la seconde guerre mondiale les soldats prenaient de la pervitine, en gros c'est de la méthamphétamine.
1  1