IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La France va lancer une agence dédiée au développement de l'intelligence artificielle à usage militaire
Dans un contexte de protestations contre l'IA militaire et l'AGI

Le , par Patrick Ruiz

3PARTAGES

5  0 
La France va lancer une agence dédiée au développement de l’intelligence artificielle à usage militaire. Cette décision fait suite à des échecs à répétition des négociations sur les robots tueurs aux Nations unies. En effet, bon nombre de pays sont lancés dans le développement de robots tueurs autonomes au mépris des appels à réglementer les usages de l’intelligence artificielle à l’échelle mondiale. La France ne veut pas être en reste et a décidé de « prendre date plutôt que de décrocher. »

Amiad est le nom retenu pour cette agence. La France va la lancer en juillet 2024. Elle sera dirigée par Bertrand Rondepierre, un ancien de Google. Ce dernier est déjà en charge de la Direction des applications militaires du Commissariat à l'énergie atomique et aux énergies alternatives. Elle sera dotée d’un budget de 300 millions d'euros par an, d’après une récente annonce du ministre français des Armées Sébastien Lecornu.



Une initiative qui intervient dans un contexte d’oppositions à l’usage militaire de l’intelligence artificielle et aux tentatives de développement de l’AGI

Les groupes Pause AI et No AGI organisent des manifestations contre l’usage militaire de l’intelligence artificielle. Elles demandent sans détour aux ingénieurs d’entreprises comme OpenAI et Google d’abandonner leurs travaux sur des systèmes d’intelligence artificielle à usage militaire et sur l’intelligence artificielle générale. Motif : les machines peuvent finir par surpasser les humains et les exterminer.

[Tweet] <blockquote class="twitter-tweet"><p lang="en" dir="ltr">Go Humans! <a href="https://t.co/u2NzyVW5Rk">pic.twitter.com/u2NzyVW5Rk</a></p>&mdash; No AGI (@No_AGI_) <a href="https://twitter.com/No_AGI_/status/1737623283884036172?ref_src=twsrc%5Etfw">December 20, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/Tweet]

Ces manifestations font suite à la suppression par OpenAI, au cours du mois de janvier, d'une clause de sa politique d'utilisation qui interdit l'utilisation de l'intelligence artificielle à des fins militaires et au début de la collaboration de l’entreprise avec le Pentagone.

Jusqu'au 10 janvier, la page des « politiques d'utilisation » d'OpenAI comprenait une interdiction des « activités présentant un risque élevé de dommages physiques, y compris », plus précisément, le « développement d'armes » et les « activités militaires et de guerre ». Cette interdiction des applications militaires, formulée en termes clairs, semble exclure toute utilisation officielle, et extrêmement lucrative, par le ministère de la défense ou toute autre armée nationale. La nouvelle politique conserve l'injonction de ne pas « utiliser notre service pour vous nuire ou nuire à autrui » et donne comme exemple « le développement ou l'utilisation d'armes », mais l'interdiction générale de l'utilisation « militaire et de guerre » a disparu.



« Plusieurs laboratoires spécialisés en intelligence artificielle et experts se rejoignent : l’IA est susceptible d’exterminer l’humanité », souligne Pause AI sur son site web.

« Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et l’intelligence artificielle générale (AGI) », confirme le scientifique en chef d’OpenAI dans un documentaire.



L’intelligence artificielle sert déjà à traquer des cibles sur les théâtres de guerre et à tuer sans intervention humaine

Suite aux attaques menées par les militants du Hamas le 7 octobre de l’année précédente, les forces israéliennes ont frappé plus de 22 000 cibles à l'intérieur de Gaza. Pour y parvenir, elles mettent à contribution une intelligence artificielle dénommée « Gospel » afin d'identifier en temps réel le plus grand nombre de cibles ennemies.



Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

Un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

Le développement d’armes autonomes se poursuit donc en parallèle de la multiplication des appels à réglementer les usages de l’intelligence artificielle à l’échelle mondiale

L’un des plus récents est celui du Pape François. Ce dernier appelle à un traité international juridiquement contraignant pour réglementer l'intelligence artificielle. Motifs : les algorithmes ne doivent pas être autorisés à remplacer les valeurs humaines et l’humanité doit éviter de tomber dans une dictature technologique qui menace l’existence humaine. Le pape a lancé cet appel dans un message dans le cadre des préparatifs de la Journée mondiale de la paix qui se célèbre tous les 1ers janviers par l’Eglise catholique romaine. Le titre du message, qu’il est de tradition d’envoyer aux dirigeants mondiaux et aux responsables d'institutions telles que les Nations unies, est « L'intelligence artificielle et la paix. »

Le dernier message du Pape s’inscrit dans la continuité du Rome Call for an AI Ethics. Cette initiative du Vatican vise à appeler les intervenants mondiaux à la mise sur pied de normes éthiques plus strictes en matière de développement d’intelligence artificielle. IBM et Microsoft sont les premières entreprises à s’y arrimer, suivis du gouvernement italien et de l’Organisation des Nations Unies pour l’alimentation et l’agriculture.

Le Rome Call For an AI Ethics énonce 6 grands principes : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée. Grosso modo, ces derniers stipulent que la technologie (l’intelligence artificielle) doit être mise sur pied dans le but de protéger les personnes ; en particulier, les faibles et les défavorisés.

Le Vatican veut s'assurer que les entreprises n'utilisent pas l'intelligence artificielle comme un moyen de collecter des données sans le consentement des individus, puis de les utiliser à des fins commerciales ou politiques.

« Sur le plan personnel, l'ère numérique modifie notre perception de l'espace, du temps et du corps, et sur le plan socio-économique, les utilisateurs sont souvent réduits à des "consommateurs", en proie à des intérêts privés concentrés dans les mains de quelques-uns. Les algorithmes extraient désormais des données qui permettent de contrôler les habitudes mentales et relationnelles à des fins commerciales ou politiques, ce, souvent à notre insu. L'asymétrie par laquelle un petit nombre d'élus savent tout de nous alors que nous ne savons rien d'eux ternit la pensée critique et l'exercice conscient de la liberté », a déclaré le Pape François.

Le Rome Call For an AI Ethics stipule en sus qu’un devoir d’explication doit faire l’objet d’instauration et que les algorithmes basés sur l'intelligence artificielle doivent fournir aux individus des informations sur la manière dont ces derniers ont abouti à leurs décisions afin de garantir qu'il n'y a pas de biais.



Les échecs des négociations sur les robots tueurs aux Nations unies jettent un doute sur la perspective de l’atteinte d’un règlement mondial juridiquement contraignant sur l’intelligence artificielle

L’intelligence artificielle est vue comme la clé du futur pour dominer sur les nations et c’est peut-être là l’explication principale des échecs à répétition des négociations aux Nations unies sur les robots tueurs. La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes.

Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis par exemple sont sur des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.


Cet autre échec des discussions à l’ONU faisait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

Et vous ?

La France a-t-elle un autre choix à faire que de « prendre date » dans le contexte mondial actuel fait de course à l’armement aux capacités augmentées par l’intelligence artificielle ?
Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !