Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet",
D'après une étude

Le , par Bill Fassinou

99PARTAGES

12  1 
Où en sommes-nous avec les armes létales autonomes ? S’il faut se baser sur la polémique pour répondre à cette question, l’on peut être amené à dire que l’humanité est plus proche de voir apparaître Skynet (un ordinateur intelligent qui tente de détruire l'humanité dans le film Terminator) qu’un traité mondial interdisant le développement des armes létales autonomes. C’est ce que pense l’ONG néerlandaise Pax. Cette semaine, Pax a partagé avec l’AFP un rapport qui classe les entreprises les plus impliquées dans le développement des armes létales autonomes aux moins impliquées. Selon le rapport, Microsoft est l’entreprise la plus dangereuse du lot.

L’intelligence artificielle (IA) se développe très rapidement et induit des possibilités inouïes dans plusieurs domaines, y compris l’armement. Les armes létales autonomes sont des armes qui n'existent pas encore ou, si elles existent, n'ont pas encore été déployées, mais elles auraient la possibilité de sélectionner et d'engager une cible sans contrôle humain suffisant. À l’échelle planétaire, des centaines d’ONG militent pour l’interdiction du développement de telles armes, craignant les désastres qu’elles pourraient créer.

Microsoft serait l'entreprise la plus impliquée dans le développement d'armes létales autonomes

L’ONG néerlandaise Pax a récemment partagé avec l’AFP un rapport qui pointe du doigt les entreprises les plus actives et les moins actives dans le développement des armes létales autonomes dans le monde. Pax a classé les entreprises selon trois critères distincts : l’entreprise développe-t-elle une technologie semblable à une IA meurtrière ? L’entreprise travaille-t-elle sur des produits militaires connexes ? S’était-elle engagée à s’abstenir de contribuer à leur développement. En se basant sur ces critères, Pax a estimé que Microsoft est l’entreprise la plus influente du secteur avec de gros contrats avec le gouvernement.

Le rapport a interrogé les principaux acteurs du secteur sur leur position concernant les armes autonomes meurtrières. D’après le rapport, 22 entreprises sont « moyennement préoccupantes », tandis que 21 ont été classées dans la catégorie des entreprises « très préoccupantes », notamment Amazon et Microsoft, qui soumissionnaient toutes les deux pour obtenir un contrat de 10 milliards de dollars du Pentagone pour fournir l'infrastructure de cloud computing à l'armée américaine. Les deux entreprises sont les finalistes à la course au contrat de cloud JEDI du Pentagone.

Plusieurs entreprises américaines étaient en courses au départ, mais plusieurs d’entre elles ont été mises de côté et Google a abandonné de son plein gré les négociations. En effet, Oracle a été évincé de la course et début octobre 2018, la filiale de l’Alphabet a décidé de se retirer de la course, faisant valoir que le projet pourrait entrer en conflit avec ses valeurs. L’entreprise devait soumettre une offre pour ce projet, qui pourrait s’étendre sur 10 ans, au plus tard le 12 octobre 2018. Google s’est ensuite expliqué dans une déclaration.
D’après le rapport de l’ONG, Amazon, Microsoft et Intel font partie des entreprises technologiques leaders qui mettent le monde en péril avec le développement de robots tueurs.

De plus, bien avant de terminer finaliste à l’obtention du contrat de cloud JEDI, l’entreprise dirigée par Satya Nadella avait déjà obtenu du gouvernement un contrat de 480 millions de dollars pour construire l’IVAS , un casque de réalité augmentée à usage militaire basé sur l’Hololens 2. Selon les informations qui circulent, le casque construit par Microsoft pour l’armée américaine pourrait être utilisé par les militaires sur le champ de bataille dans les prochaines années. Une fois déployé, ce casque pourrait augmenter la létalité des soldats sur le champ de bataille.

Selon l’ONG Pax, Amazon, Intel et Palantir sont aussi parmi les 21 entreprises « à haut risque »

De même, Palantir Technologies, une entreprise de services et d'édition logicielle spécialisée dans l'analyse et la science des données basée à Palo Alto en Californie, est aussi placée dans le groupe des entreprises « hautement préoccupante », à l’instar de Microsoft, Amazon et Intel. Selon le rapport, Palantir est issue d'une société de capital-risque soutenue par la CIA, qui a remporté un contrat de 800 millions de dollars pour la mise au point d'un système d'IA pouvant aider les soldats à analyser une zone de combat en temps réel.

Microsoft n'est pas la seule entreprise considérée comme « à haut risque » par l’ONG Pax. Plus de 50 entreprises dans plus de 12 pays différents ont été considérées et parmi les 21 qui se sont révélés « à haut risque » figurent Amazon, Microsoft, Intel et Palantir.

Des voix s'élèvent contre le développement d'armes létales

Cela dit, au fur et à mesure que le développement de ces armes se poursuit, plusieurs voix continuent à s’élever contre. Selon Stuart Russell, professeur des sciences informatiques à l’Université de Californie, les armes autonomes deviendront inévitablement des armes de destruction massive évolutives avec des conséquences peut-être irréversibles.

Selon Russell, tout ce qui est actuellement une arme, les gens travaillent sur des versions autonomes, que ce soit des chars, des avions de chasse ou des sous-marins. Certaines armes de ce type existent déjà et sont même utilisées dans les zones de combat. Par exemple, la Harpie israélienne est un drone autonome qui est sollicité pour « flâner » dans une zone cible et sélectionner les sites à frapper. De plus, de nouvelles catégories d’armes autonomes pourraient éventuellement être créées et leur utilisation de la technologie de reconnaissance faciale pourrait créer d’autres problèmes éthiques.


Elles pourraient inclure des mini-drones armés comme ceux présentés dans le court-métrage 2017 « Slaughterbots ». Slaughterbots est une vidéo de 2017 sur le contrôle des armements présentant un scénario théâtralisé dans un proche avenir, où des nuées de microdrones bon marché utilisent l'intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de plusieurs critères qui ont été préprogrammés. En utilisant la technologie de reconnaissance faciale, les drones pourraient éliminer un groupe ethnique ou un genre. Mais ça pourrait aller encore plus loin.

Les drones pourraient utiliser les informations des médias sociaux pour effacer toutes les personnes ayant un point de vue politique. « Avec ce type d'arme, vous pourriez en envoyer un million dans un conteneur ou un avion-cargo. Ils ont donc la capacité d'une bombe nucléaire destructrice, mais laissent tous les bâtiments en état », a déclaré Russell. Mercredi, un groupe d'experts gouvernementaux a débattu des options politiques concernant les armes autonomes létales lors d'une réunion de la Convention des Nations Unies sur certaines armes classiques, à Genève. Parviendra-t-on à un accord d’interdiction de ces armes ?

En avril dernier, la Commission européenne a imposé des directives sur lesquelles doit se baser tout système d’IA destiné à être utilisé en Europe. Chaque solution ou chaque technologie basée sur l’IA doit se conformer désormais à une liste d’évaluation spécifique, ainsi qu’à plusieurs exigences. Selon les principes de développement adoptés par l’Union européenne, chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial. Cependant, Russell pense que cela n’est pas suffisant et qu’il faudra aller encore plus loin si l’on veut éviter le désordre dans les prochaines années.

« Il est essentiel de passer à l'étape suivante, à savoir l'interdiction internationale de l'IA mortelle, qui pourrait être résumée comme suit : les machines pouvant décider de tuer des êtres humains ne seront ni développées, ni déployées, ni utilisées », a-t-il fait valoir.

Source : AFP

Et vous ?

Quel est votre avis sur le sujet ?
Selon vous, cette étude est-elle pertinente ou pas ?
Êtes-vous pour ou contre le développement des armes létales autonomes ? Pourquoi ?

Voir aussi

Chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial, selon l'Union européenne

Microsoft remporte un contrat de 480MM$ pour fournir à l'armée US des prototypes de systèmes de réalité augmentée pour missions de combats

Au grand regret d'Oracle, le ministère américain de la défense a choisi Microsoft et Amazon comme finalistes dans le projet militaire JEDI Cloud

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de TJ1985
Membre confirmé https://www.developpez.com
Le 02/09/2019 à 12:37
Citation Envoyé par Hervé Autret Voir le message
Ça flotte rarement, ces trucs-là.
C'est pourquoi le débat est pesant et va au fond des choses ! 🤡
2  0 
Avatar de TJ1985
Membre confirmé https://www.developpez.com
Le 01/09/2019 à 11:54
Pour moi, les choses sont simples : Tout ce qui peut être imaginé sera un jour construit, et la probabilité que ce soit utilisé est directement proportionnelle aux défis relevés pour sa réalisation.
Ces ONG sont gentilles, il n'est pas mauvais qu'elles tirent les sonnettes. Mais si il n'est pas impossible de stopper certains développements officiels faits par de grandes entreprises, les moyens techniques existants me paraissent bien trop disponibles pour qu'une interdiction de tout développement soit crédible.
J'en veux pour preuve les drones jouets militarisés par DAESH & Cie.
Contrairement aux armes biologiques, le développement et le test d'une arme létale autonome n'est pas contraignant pour son fabricant. Ça peut être fait sans souci dans un garage, comme il est coutume dans ce genre de cas, pas besoin de confinement classe 5... Et il est assez simple de concevoir un système de fabrication réparti, puis un assemblage automatisé.
En bref, il ne faut pas perdre de temps à s'illusionner sur l'efficacité du battage fait sur ce thème. Il vaut mieux se préparer à les voir apparaître rapidement - et a les combattre.
1  0 
Avatar de loulnux
Membre régulier https://www.developpez.com
Le 02/09/2019 à 12:45
Citation Envoyé par TJ1985 Voir le message
C'est pourquoi le débat est pesant et va au fond des choses ! 🤡
Et c'est pas coule !
1  0 
Avatar de matthius
Membre éprouvé https://www.developpez.com
Le 23/08/2019 à 14:52
Sky est en faillite.
net ça marche en France et en Espagne.
0  0 
Avatar de abriotde
Membre expérimenté https://www.developpez.com
Le 24/08/2019 à 22:46
Je pense que le problème n'ai pas tant le développement d'armes "automatique/intelligentes" mais la prolifération des armes (et des armées) tout court.

Une IA pourra toujours être "contrôlée" d'une manière ou d'une autre même si bien sûr on est pas a l'abri d'accidents. Mais les accidents restent rare et on n'a pas besoin d'armes intelligentes pour ça.

Depuis 1945 et surtout 1968 on était sur un relative désarment du monde mais depuis 2011 la situation change. Très souvent quand on a eu une prolifération d'armes, on a a eu un conflit proportionnel a l'armement parfois par accident, c'est a dire qu'il suffit d'un quiproquo, d'une méfiance, d'une susceptibilité mal placé, d'un dirigeant en mal d'unité dans son pays pour un embrasement.

Développer des armes, c'est nécessaire mais ne pas s'armer ou très peu et surtout ne pas intervenir dans la politique des autres pays même pour des raisons valable sauf à la limite si vous êtes certains d'avoir une large majorité pour remettre le pays en ordre après. Autrement dit, faites comme la Suisse mais pas comme les USA (depuis 1945). La Chine est assez sage dans ce domaine, c'est la puissance dominante la plus sage.

Citation Envoyé par super_navide Voir le message
Les complotiste a la con
Ca veux rien dire, les complotiste n'ont rien a voir avec la guerre ou alors il faut préciser, il existe des millions de complotiste différents. D'ailleurs la chose la plus sûr c'est qu'il existe des complots, et que, parmi les complots des complotistes, certains sont vrai, mais aucun n'est certains. Et surtout un complot réussi très très rarement comme il à été pensé, au mieux a t'il une influence dans le sens qu'il souhaite. Le monde est trop complexe pour être prévisible.

Pour ce qui est du trio Chine, Russie Iran, je dirais qu'au moins la Chine est parmi les pays les moins belliqueux au monde. Les USA est le pays qui a déclaré le plus la guerre sur les 100 dernières années. L'Iran n'a pas menacé de guerre depuis fort longtemps même s'il attise des conflits dans la région a son profit. La Russie est sans doute le pays le plus décomplexé avec la guerre, qui les engage sans se soucier de moralité a ses seuls fins de puissance (sans doute le pays le plus immoral).
0  0 
Avatar de
https://www.developpez.com
Le 26/08/2019 à 16:41
Bonjour,
Pour mettre tous cet armement électronique hors d’état de nuire, Il suffit aux États de développer des EMP (armes a impulsion électromagnétiques) pour rendre aveugle tout ce beau monde.
Des grenades EMP pour les apprentis Robocops qui se retrouveraient avec de la quincaillerie inutilisable sur le dos et des lanceurs de missiles EMP pour tout ce qui vole.
Cerise sur le gâteau, ce type de technologie coûte moins cher et est à la portée de la majorité les états.

Tout cet argent gaspillé pour goinfrer l’industrie de l’armement... Je vous laisse deviner qui paie la facture.

Forget North Korea: Russia Is Now Building EMP Weapons : https://nationalinterest.org/blog/th...-weapons-23760

Trump Moves To Protect America From Electromagnetic Pulse Attack : https://www.forbes.com/sites/arielco.../#5c2608d4e7e2
0  0 
Avatar de loulnux
Membre régulier https://www.developpez.com
Le 01/09/2019 à 12:02
La fiction a toujours été le moteur de la "modernisation" des armes et cette dernière pourvoyeuse de débouchés dans le génie civile, vous pouvez vous insurger mais c'est malheureusement un fait, le couteau a précédé l'araire et les explosifs les fertilisants, c'est comme ça.
D'ailleurs l'état français viendrait de lancer une sorte de cellule "think tank" composée d'auteurs de fiction pour contribuer à l'élaboration des armes du futur.
C'est totalement désolant mais nous en sommes là et ça s'appelle le progrès.
0  0 
Avatar de super_navide
Nouveau Candidat au Club https://www.developpez.com
Le 23/08/2019 à 18:56
Je pense que la menace viendra plutôt de groupe terroriste ou d'état qui ne sont pas des démocraties (RUSSIE CHINE ARABIE SAOUDITE ) qui eux n'auront aucun scrupule à créer ce genre d'arme.
On devrait plutôt voir comment on peut détruire et se défendre contre de tel machine.
Pour les complotiste a la con, je sais c'est les etats unis et l'europe les méchants et la russie la chine et l'arabie sahoudite les gentilles démocraties....
0  7 
Contacter le responsable de la rubrique Intelligence artificielle

Partenaire : Hébergement Web