IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les forces de défense israéliennes utilisent davantage de systèmes d'armes basés sur l'IA
Les systèmes d'IA du pays peuvent sélectionner des cibles et organiser des raids

Le , par Bruno

13PARTAGES

2  0 
Si l'explosion de l'utilisation de l'IA, qu'elle soit générative ou non, a suscité cette année des inquiétudes quant aux pertes d'emplois et à la fin de la créativité humaine, elle a également exacerbé des craintes de longue date concernant la mise en œuvre de l'intelligence artificielle dans les armes. Des responsables militaires israéliens auraient confirmé l'utilisation d'un système de recommandation d'IA qui analyse des masses de données pour déterminer les cibles à sélectionner pour les frappes aériennes.

En Israël, le pays utilise des armes et des drones autonomes depuis des années. Aujourd'hui, ses forces aériennes ont commencé à utiliser l'IA pour sélectionner les cibles des frappes aériennes et organiser la logistique en temps de guerre. Les forces de défense israéliennes ont commencé à utiliser l'intelligence artificielle pour sélectionner les cibles des frappes aériennes et organiser la logistique en temps de guerre, alors que les tensions s'intensifient dans les territoires occupés et avec le grand rival iranien.


Bien que l'armée ne fasse pas de commentaires sur des opérations spécifiques, les responsables affirment qu'elle utilise désormais un système de recommandation par intelligence artificielle capable de traiter d'énormes quantités de données afin de sélectionner des cibles pour les frappes aériennes. Les raids peuvent ensuite être rapidement organisés à l'aide d'un autre modèle d'IA appelé Fire Factory, qui utilise des données sur les cibles pour calculer les charges de munitions, hiérarchiser et assigner des milliers de cibles aux avions et aux drones, et proposer un calendrier d'attaque.

Le fait de donner à l'IA un contrôle important sur les opérations militaires a suscité de nombreuses controverses et de nombreux débats. Un responsable des Forces de défense israéliennes (FDI) a tenté d'apaiser les craintes en soulignant que les systèmes sont supervisés par des humains qui contrôlent et approuvent les cibles et les plans, mais que la technologie n'est pas soumise à une réglementation nationale ou internationale.

Les systèmes d'IA israéliens ont déjà été utilisés sur le champ de bataille, notamment lors d'un conflit de 11 jours dans la bande de Gaza en 2021, que les Forces de défense israéliennes ont qualifié de première « guerre de l'IA » en raison de l'utilisation de la technologie pour identifier les rampes de lancement de roquettes et déployer des essaims de drones.

Israël est un leader mondial en matière d'armes et de systèmes autonomes. Les tourelles d'artillerie dotées d'IA qui se trouvent à ses frontières peuvent suivre des cibles avec une précision accrue lorsqu'elles tirent des gaz lacrymogènes et des balles à pointe éponge. Le pays a également utilisé des drones suicides autonomes, ou munitions de flânerie, qui "flânent" dans les airs avant de frapper une cible répondant à des critères préalablement identifiés.

L'année dernière, l'armée israélienne a installé une tourelle de tir pilotée par l'IA dans le but de disperser les foules dans la ville palestinienne d'Hébron, en Cisjordanie occupée. L'entreprise à l'origine de l'arme télécommandée affirme que le but de ces canons autonomes est de mieux protéger les soldats et les civils en améliorant la précision de l'impact sur la bonne cible. Le système serait dans sa phase pilote et l'armée israélienne testerait la possibilité de l'utiliser pour employer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles.

La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système One Shot-One Hit. Elle se vante d'avoir réussi à « combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle ».

Les partisans de l'utilisation de l'IA dans ces systèmes affirment qu'ils pourraient réduire le nombre de victimes civiles. Ceux qui s'opposent à leur utilisation allèguent qu'une erreur commise par une machine pourrait anéantir des innocents, sans que personne ne soit coupable.

Cette année, plusieurs avancées ont été réalisées dans le domaine des armes autonomes. En février, un nouveau jet d'entraînement de Lockheed Martin a été piloté par une intelligence artificielle pendant 17 heures, ce qui constitue une première pour un avion tactique. Le même mois, la marine américaine a pris livraison d'un navire capable de fonctionner de manière autonome pendant 30 jours.

Inquiétude au sujet des dangers des systèmes d'armes basés sur l'IA

Alors que l'IA continue de progresser, certains s'inquiètent des dangers des systèmes d'armes basés sur l'IA. Cela soulève la question de savoir dans quelle mesure il sera possible de contrôler l'utilisation militaire de l'IA. Ces avancées, ainsi que l'avertissement de l'ancien patron de Google, Eric Schmidt, selon lequel l'IA pourrait avoir un effet similaire à celui de l'introduction des armes nucléaires sur les guerres, ont conduit plus de 60 nations à accepter de répondre aux préoccupations concernant l'utilisation de l'IA dans les guerres lors du premier sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire (REAIM). Le seul participant à ne pas avoir signé cet appel à l'action est Israël.

Pour Elon Musk, cofondateur et président-directeur général de la société astronautique SpaceX et directeur général de la société automobile Tesla, l'IA est bien plus dangereuse que l'arme nucléaire. « Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Musk

Les armées du monde entier travaillent sur la meilleure façon de développer, d'intégrer et d'utiliser l'IA dans leurs systèmes d'armes. Bien que nombre de ces systèmes n'aient pas encore été réalisés, les percées dans le domaine de l'IA pourraient avoir un impact significatif sur le mode de fonctionnement des armées au fil du temps. Les inquiétudes suscitées par les systèmes d'IA militaires ont conduit certains militants à demander l'interdiction ou la réglementation de certains systèmes d'armes basés sur l'IA.

Cependant, l'IA présente plusieurs caractéristiques qui la rendent difficile à contrôler. En tant que technologie habilitante à usage général, l'IA est comme l'électricité ou le moteur à combustion interne et a d'innombrables applications non militaires ou de défense.

Elle diffère de certaines technologies militaires parce qu'elle est principalement développée dans le secteur civil par des ingénieurs de l'industrie privée ou d'organismes de recherche. Bien que la disponibilité généralisée de l'IA rende improbable une interdiction complète de toutes les applications militaires de l'IA, la communauté internationale pourrait avoir l'occasion de collaborer pour réglementer ou interdire certaines utilisations de l'IA militaire.

Tout au long de l'histoire, les pays ont cherché à restreindre ou à interdire certaines armes ou utilisations d'armes. Les motivations de la maîtrise des armements peuvent varier, tout comme son succès. L'évaluation des cas historiques de contrôle des armements montre que des mesures concrètes prises aujourd'hui pourraient augmenter les chances de succès du contrôle des armements de l'IA à l'avenir.

Les décideurs politiques peuvent s'efforcer d'influencer la manière dont la technologie de l'IA est utilisée par les armées. Les pays peuvent également établir un dialogue régulier avec leurs alliés et leurs concurrents sur la manière dont l'IA pourrait être utilisée dans la guerre et sur les mesures qui pourraient être prises pour réduire les risques mutuels.


L'omniprésence et la démocratisation de l'IA rendent la maîtrise des armements difficile, mais pas impossible en toutes circonstances. Si l'interdiction totale de l'utilisation militaire de l'IA est irréalisable, les États pourraient interdire certaines applications de l'IA, à condition que les utilisations interdites soient clairement définies et que les États aient la capacité de vérifier que les autres États respectent leurs engagements.

La vérification, bien que difficile pour toute capacité militaire basée sur un logiciel, pourrait être réalisée par le biais de diverses méthodes : mise en place de régimes d'inspection intrusifs, réglementation des caractéristiques physiques observables de l'extérieur des systèmes basés sur l'IA (taille, poids, charge utile) ou des comportements autonomes, ou restriction de l'infrastructure informatique (c'est-à-dire du matériel). Tout contrôle de l'armement de l'IA serait un défi, mais dans les bonnes conditions, il pourrait être réalisable dans certains cas.

Source : Bloomberg

Et vous ?

êtes-vous pour ou contre l'utilisation des armes basées sur l'IA ?

Selon vous, les gouvernements du monde entier peuvent-ils réussir à réguler le développement des armes basées sur l'IA ?

Quels peuvent être à votre avis les dangers au développement des armes basées sur l'IA ?

Voir aussi :

Israël déploie des armes assistées par l'IA pour traquer des cibles en Cisjordanie, et suscite de nouvelles préoccupations sur la prolifération des armes létales autonomes

Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

Un projet de loi bipartisan américain vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain, il affirme que l'IA ne devrait pas trancher les questions de vie ou de mort

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 18/07/2023 à 15:14
Tu peux toujours compter sur Israël pour utiliser les nouvelles technologies, même si elles sont immorales ou en dehors du droit international. Israël n'en a strictement jamais rien eu à tarter des règles.
1  0