IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Israël utilise des essaims de drones autonomes pour traquer et anéantir le Hamas sans intervention humaine :
L'IA doit-elle avoir le droit de vie ou de mort sur le champ de bataille ?

Le , par Patrick Ruiz

136PARTAGES

13  0 
Le fait qu’Israël fasse usage d’essaims de drones autonomes pour traquer et anéantir des adversaires n’est pas une première. L'année dernière, un groupe de soldats fidèles au général libyen Khalifa Haftar a été attaqué par des drones agissant de manière autonome, selon un rapport du groupe d'experts du Conseil de sécurité des Nations Unies sur la Libye. Le tableau soulève une question centrale : l’intelligence artificielle doit-elle avoir le droit de vie ou de mort sur le champ de bataille ?

Le Hamas a commencé à tirer des roquettes sur Israël après les protestations des Palestiniens en mai. Cela a conduit à un conflit de 11 jours au cours duquel 256 personnes ont été tuées à Gaza et 13 en Israël. Au cours de ces violences, l'armée israélienne affirme que plus de 4300 roquettes ont fait l'objet de tirs depuis Gaza en direction de villes et de villages. Israël a riposté par des frappes aériennes et des tirs d'artillerie, mais n'a pas déployé de forces terrestres dans sa lutte contre les terroristes. Le pays a plutôt fait usage d’un ingrédient additionnel : des essaims de drones autonomes.

Auparavant, les drones étaient dirigés par un seul opérateur qui pilotait l'appareil depuis une base éloignée. Mais ces dernières années, les militaires s’activent au développement d'une intelligence artificielle qui permet aux drones de travailler ensemble sans avoir besoin d'un opérateur humain. Le tableau interpelle quand on prend en compte le fait que le chef de la branche de modernisation des armées US reconnaît que « l’Homme va devoir passer la main à l’intelligence artificielle pour faire face aux menaces des champs de bataille du futur. »



L’armée US et d’autres de par le monde tablent donc sur les meilleurs moyens de contrecarrer ce type de flotte. Le chef de la branche de modernisation des armées US explique que, dans des situations où un ennemi mettrait en œuvre une telle artillerie, l'humain ne serait pas à même de résister longtemps en raison de paramètres comme l’importance de son temps de réaction. C’est fort de cette observation qu’il appelle à l'utilisation de systèmes de combat renforcés par de l'Intelligence artificielle (IA). Ils permettraient d'améliorer la reconnaissance et l'identification des cibles et surtout de gagner en réactivité. Autrement dit, l’hyperactivité des champs de bataille du futur forcera l’humain à passer la main à l’intelligence artificielle pour assurer sa propre défense.


Ces développements font suite à une sortie d’Elon Musk sur la question : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable… L’ère des avions de chasse est révolue. »

C’est le type de tableau auquel on aura de plus en plus droit tant les exemples qui illustrent le fait qu’une machine peut être mise sur pied pour surpasser un humain sur une tâche donnée peut être allongée à souhait. Pour ce qui est du cas spécifique des combats aériens, noter qu’Alpha, une intelligence artificielle mise sur pied par les laboratoires de recherche de l’armée américaine, a défait des experts de cette dernière dans le cadre de simulations de combats aériens.

« J’ai été surpris par la manière dont elle était consciente et réactive. Elle semblait être consciente de mes intentions et réagir instantanément à mes changements en vol et à mes déploiements de missiles. Elle savait comment déjouer le tir que je faisais. Elle changeait instantanément entre les actions défensives et offensives en fonction des besoins », commente le colonel américain Gene Lee, décrivant Alpha comme étant l’intelligence artificielle la plus agressive, réactive, dynamique et crédible qu’il ait jamais vue.

Le chef de la branche de modernisation des armées US s’appuie sur des chiffres du Project Convergence pour écarter les craintes liées à plus d’autonomie des systèmes d’intelligence artificielle. La précision apportée par ces deniers oscillerait entre 98 et 99 % pour ce qui est des tâches d’identification, de pistage et de destruction desdites menaces aériennes.


On entre alors en plein dans les questions d’éthique en lien avec l’utilisation de l’intelligence artificielle. L’ouverture desdits systèmes à plus d’autonomie leur conférerait au final un droit de vie ou de mort sur le champ de bataille. La position de l’UE sur la question est que les robots-tueurs doivent faire l’interdiction. Le Parlement européen a adopté une résolution y relative en 2018. D’autres pays parmi lesquels les USA et la Russie mettent en avant la nécessité d’explorer les avantages des armes autonomes. C’est d’ailleurs l’un des motifs pour lesquels les négociations en la matière se sont trouvées bloquées au niveau des Nations Unies il y a 2 ans.

Et vous ?

Les systèmes d’armement autonomes doivent-ils être interdits à l’échelle internationale ?
Peut-on espérer que les pays du monde parviennent à une telle entente ?

Voir aussi :

Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille, et appelle à interdire les robots-tueurs
Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations, menées au niveau des Nations Unies

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 08/07/2021 à 19:42
Citation Envoyé par Patrick Ruiz Voir le message
l’IA doit-elle avoir le droit de vie ou de mort sur le champ de bataille ?
Question très mal posée. Ces drones ne sont pas arrivés là par l'action du Saint Esprit.
Quelqu'un a décidé de les produire, de les entraîner, et de les utiliser dans un contexte d'opération.
Les droits accordés à ces drones ne sont que ceux accordés par leur exploitant.
La question est la suivante : l'armée doit-elle avoir le droit de vie ou de mort sur le champs de bataille sur la base de décisions automatisées ?
4  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 07/07/2021 à 9:26
No Juge, no jury, comme on dit..
1  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 09/07/2021 à 18:29
La réponse est dans le titre .
0  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 11/07/2021 à 9:00
Citation Envoyé par Matthieu Vergne Voir le message
(...)
je suis assez d'accord, la question est mal posée (ou plutôt celle que tu proposes est mieux posée)

pour y répondre, je serais tenté de dire que si les lois valent pour les individus au seins de la société pour chaque état, entre les états ne s'applique souvent que la loi du plus fort (sauf quelques exceptions qui ne reposent que sur la bonne volonté desdits états, accords de X, convention de Y...)
sachant par ailleurs que l'armée dans la plupart des pays est directement sous le commandement de l'état lui-même.

la question du "droit" est finalement toute vue : ce sont les états qui définissent les droits, en l'absence de règles seule la loi du plus fort s'applique. en ça la question est donc similaire à celle de la régulation de l'arme nucléaire par exemple, et sa solution pourrait être du même ordre : la course à l'armement automatisé pourrait avoir lieu, et le(s) plus fort(s) auraient alors tout le luxe d'obliger à une réglementation au niveau mondial, avec l'éventualité d'un carnage entre les deux...
0  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 12/07/2021 à 10:12
Le rapport peut sembler lointain avec le sujet des armes autonomes.
Seulement sur le plan juridique , Hollande dans le bouquin de DAVET et LHOMME a avoué avoir commandité 200 exécutions de djihadistes dont certains français.
Le droit de la guerre est donc contraire au droit pénal français qui interdit la peine de mort.
Ici le contexte impose le respect de la convention de Genève pour le respect de la vie des civils et la légitime défense.
Donc à mon avis il conviendrait que ces drones autonomes fassent trois somations comme les vigiles des ZMS pour les plus anciens avant de tuer .
C'est faisable avec un essaim.
Après il faut rappeler que le droit de la guerre reconnaît le statut d'agresseur et d'agressés par les accords de 1975 à Helsinski.
Pour que la France puisse bombarder Daesh Il a fallu le reconnaître en tant que proto etat .
Donc la seule qualification qu'il reste dans les guerres assymétriques et même moralement est que l'ONU reconnaisse la légitime défense contre des groupes et plus seulement contre les Etats
0  0