L’intelligence artificielle (IA) se développe très rapidement et induit des possibilités inouïes dans plusieurs domaines, y compris l’armement. Les armes létales autonomes sont des armes qui n'existent pas encore ou, si elles existent, n'ont pas encore été déployées, mais elles auraient la possibilité de sélectionner et d'engager une cible sans contrôle humain suffisant. À l’échelle planétaire, des centaines d’ONG militent pour l’interdiction du développement de telles armes, craignant les désastres qu’elles pourraient créer.
Microsoft serait l'entreprise la plus impliquée dans le développement d'armes létales autonomes
L’ONG néerlandaise Pax a récemment partagé avec l’AFP un rapport qui pointe du doigt les entreprises les plus actives et les moins actives dans le développement des armes létales autonomes dans le monde. Pax a classé les entreprises selon trois critères distincts : l’entreprise développe-t-elle une technologie semblable à une IA meurtrière ? L’entreprise travaille-t-elle sur des produits militaires connexes ? S’était-elle engagée à s’abstenir de contribuer à leur développement. En se basant sur ces critères, Pax a estimé que Microsoft est l’entreprise la plus influente du secteur avec de gros contrats avec le gouvernement.
Le rapport a interrogé les principaux acteurs du secteur sur leur position concernant les armes autonomes meurtrières. D’après le rapport, 22 entreprises sont « moyennement préoccupantes », tandis que 21 ont été classées dans la catégorie des entreprises « très préoccupantes », notamment Amazon et Microsoft, qui soumissionnaient toutes les deux pour obtenir un contrat de 10 milliards de dollars du Pentagone pour fournir l'infrastructure de cloud computing à l'armée américaine. Les deux entreprises sont les finalistes à la course au contrat de cloud JEDI du Pentagone.
Plusieurs entreprises américaines étaient en courses au départ, mais plusieurs d’entre elles ont été mises de côté et Google a abandonné de son plein gré les négociations. En effet, Oracle a été évincé de la course et début octobre 2018, la filiale de l’Alphabet a décidé de se retirer de la course, faisant valoir que le projet pourrait entrer en conflit avec ses valeurs. L’entreprise devait soumettre une offre pour ce projet, qui pourrait s’étendre sur 10 ans, au plus tard le 12 octobre 2018. Google s’est ensuite expliqué dans une déclaration.
D’après le rapport de l’ONG, Amazon, Microsoft et Intel font partie des entreprises technologiques leaders qui mettent le monde en péril avec le développement de robots tueurs.
De plus, bien avant de terminer finaliste à l’obtention du contrat de cloud JEDI, l’entreprise dirigée par Satya Nadella avait déjà obtenu du gouvernement un contrat de 480 millions de dollars pour construire l’IVAS , un casque de réalité augmentée à usage militaire basé sur l’Hololens 2. Selon les informations qui circulent, le casque construit par Microsoft pour l’armée américaine pourrait être utilisé par les militaires sur le champ de bataille dans les prochaines années. Une fois déployé, ce casque pourrait augmenter la létalité des soldats sur le champ de bataille.
Selon l’ONG Pax, Amazon, Intel et Palantir sont aussi parmi les 21 entreprises « à haut risque »
De même, Palantir Technologies, une entreprise de services et d'édition logicielle spécialisée dans l'analyse et la science des données basée à Palo Alto en Californie, est aussi placée dans le groupe des entreprises « hautement préoccupante », à l’instar de Microsoft, Amazon et Intel. Selon le rapport, Palantir est issue d'une société de capital-risque soutenue par la CIA, qui a remporté un contrat de 800 millions de dollars pour la mise au point d'un système d'IA pouvant aider les soldats à analyser une zone de combat en temps réel.
Microsoft n'est pas la seule entreprise considérée comme « à haut risque » par l’ONG Pax. Plus de 50 entreprises dans plus de 12 pays différents ont été considérées et parmi les 21 qui se sont révélés « à haut risque » figurent Amazon, Microsoft, Intel et Palantir.
Des voix s'élèvent contre le développement d'armes létales
Cela dit, au fur et à mesure que le développement de ces armes se poursuit, plusieurs voix continuent à s’élever contre. Selon Stuart Russell, professeur des sciences informatiques à l’Université de Californie, les armes autonomes deviendront inévitablement des armes de destruction massive évolutives avec des conséquences peut-être irréversibles.
Selon Russell, tout ce qui est actuellement une arme, les gens travaillent sur des versions autonomes, que ce soit des chars, des avions de chasse ou des sous-marins. Certaines armes de ce type existent déjà et sont même utilisées dans les zones de combat. Par exemple, la Harpie israélienne est un drone autonome qui est sollicité pour « flâner » dans une zone cible et sélectionner les sites à frapper. De plus, de nouvelles catégories d’armes autonomes pourraient éventuellement être créées et leur utilisation de la technologie de reconnaissance faciale pourrait créer d’autres problèmes éthiques.
Elles pourraient inclure des mini-drones armés comme ceux présentés dans le court-métrage 2017 « Slaughterbots ». Slaughterbots est une vidéo de 2017 sur le contrôle des armements présentant un scénario théâtralisé dans un proche avenir, où des nuées de microdrones bon marché utilisent l'intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de plusieurs critères qui ont été préprogrammés. En utilisant la technologie de reconnaissance faciale, les drones pourraient éliminer un groupe ethnique ou un genre. Mais ça pourrait aller encore plus loin.
Les drones pourraient utiliser les informations des médias sociaux pour effacer toutes les personnes ayant un point de vue politique. « Avec ce type d'arme, vous pourriez en envoyer un million dans un conteneur ou un avion-cargo. Ils ont donc la capacité d'une bombe nucléaire destructrice, mais laissent tous les bâtiments en état », a déclaré Russell. Mercredi, un groupe d'experts gouvernementaux a débattu des options politiques concernant les armes autonomes létales lors d'une réunion de la Convention des Nations Unies sur certaines armes classiques, à Genève. Parviendra-t-on à un accord d’interdiction de ces armes ?
En avril dernier, la Commission européenne a imposé des directives sur lesquelles doit se baser tout système d’IA destiné à être utilisé en Europe. Chaque solution ou chaque technologie basée sur l’IA doit se conformer désormais à une liste d’évaluation spécifique, ainsi qu’à plusieurs exigences. Selon les principes de développement adoptés par l’Union européenne, chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial. Cependant, Russell pense que cela n’est pas suffisant et qu’il faudra aller encore plus loin si l’on veut éviter le désordre dans les prochaines années.
« Il est essentiel de passer à l'étape suivante, à savoir l'interdiction internationale de l'IA mortelle, qui pourrait être résumée comme suit : les machines pouvant décider de tuer des êtres humains ne seront ni développées, ni déployées, ni utilisées », a-t-il fait valoir.
Source : AFP
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, cette étude est-elle pertinente ou pas ?
Êtes-vous pour ou contre le développement des armes létales autonomes ? Pourquoi ?
Voir aussi
Chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial, selon l'Union européenne
Microsoft remporte un contrat de 480MM$ pour fournir à l'armée US des prototypes de systèmes de réalité augmentée pour missions de combats
Au grand regret d'Oracle, le ministère américain de la défense a choisi Microsoft et Amazon comme finalistes dans le projet militaire JEDI Cloud