IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Robots tueurs » : le « non, mais » du comité d'éthique de l'armée.
Jusqu'où la France est-elle prête à aller ?

Le , par Stan Adkens

56PARTAGES

12  0 
« Non » aux systèmes d’armes létaux pleinement autonomes (SALA), parfois résumés sous l’appellation « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante approuvent ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

Placé sous la présidence de Bernard Pêcheur, président de section honoraire au Conseil d’État, le comité d’éthique de la défense a pour mission d'entretenir au profit du ministère des Armées une réflexion éthique sur les enjeux liés à l’évolution des armes ou à l’émergence de nouvelles technologies dans le domaine de la défense. L’organisme vient de publier son avis sur l’intégration de l’autonomie des systèmes d’armes létaux, dans un document de 47 pages. C’est le deuxième sujet dont il s’empare après celui du soldat augmenté, en décembre. Pour rappel, le groupe a été mis sur pied en 2019.


Les conclusions du Comité sont claires : l'emploi par les forces armées de systèmes d'armes létales autonomes serait « absolument contraire au principe constitutionnel de nécessaire libre disposition de la force armée et au principe de continuité de la chaîne de commandement ». Par conséquent, l'emploi des SALA ne peut qu’être refusé tout comme la fabrication et l’exportation.

Soit le rejet de l’utilisation, sur un théâtre de guerre, de toute forme d’arme programmée dont l’homme n’aurait pas la maîtrise complète. Ces systèmes sont acceptables à condition qu'ils soient toujours supervisés par l'Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. « La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent ainsi les dix-huit membres civils et militaires de ce comité où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.

Il n'existe pas une définition universellement acceptée des SALA, comme le rappelle le Comité. Il faut croiser plusieurs textes internationaux pour dégager certaines caractéristiques de ces systèmes. Ainsi, les SALA doivent être considérés comme des systèmes pleinement autonomes, c'est-à-dire des systèmes capables de définir le cadre de leur mission, sans validation humaine et de recourir à la force létale sans aucune forme de contrôle ou de supervision humaine.

Dans une précision de taille, le Comité indique que les SALA n'existent pas encore. Mais la conception, la fabrication et l’emploi de telles machines sont toutefois envisageables à moyen terme. En effet, « rien ne permet de penser que des groupes terroristes ou certains États ne partageant pas nos valeurs ne chercheront pas à s’en doter et à en faire usage … », indique le rapport. C'est d'ailleurs la raison pour laquelle le ministère des Armées avait mandaté le Comité pour se pencher sur ce sujet.

Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes ou des robots de guerre se sont tenues au cours des derniers mois de l’année 2017 à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.

À ce sujet, le gouvernement russe est resté fermement opposé à toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU. La France a proposé d’approfondir la distinction entre les systèmes dotés « d’automatismes » de complexité variable et les systèmes « autonomes » qui ne font appel à aucune mesure de supervision humaine.

Le comité n’est pas contre « les systèmes d'armes létaux intégrant de l'autonomie » (SALIA)

Le comité d’éthique de la défense ne voit ainsi pas d’objection à l’introduction d’une certaine dose d’autonomie et donc de recours aux SALIA (systèmes d’armes létaux intégrant de l’autonomie). Ce qui distinguerait les SALA des SALIA, « c'est une différence de nature qui tient à la place de l'humain dans certaines fonctions critiques », peut-on lire dans le rapport.

Les SALA ont été conçu pour faire évoluer ses propres règles de fonctionnement et redéfinir tout seul sa mission. Ils se passent ainsi de l’appréciation de la situation par le commandement. Les SALIA peuvent se voir attribuer la responsabilité et l’exécution de certaines tâches de façon autonome, mais de manière temporaire et uniquement pour des missions d’identification, de classification, d’interception ou d’engagement. Le comité d’éthique précise bien qu’ils ne peuvent prendre d’initiatives létales sans contrôle humain.

En clair, le comité d’éthique ouvre la voie à des armes ou des robots qui pourront certes tuer, mais seront « incapables d’agir seuls, sans contrôle humain, de modifier leurs règles d’engagement et de prendre des initiatives létales », en s’adaptant de manière indépendante à un théâtre de guerre, par exemple. Cette définition peut concerner diverses catégories d’armes, comme des mules de transports, certains missiles ou drones.

« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte en 2017. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.

Le mois dernier, les élèves officiers de l’école militaire de Saint-Cyr Coëtquidan ont pu s’entraîner avec le produit phare de Boston Dynamics, Spot. Spot est un robot quadrupède. Il est agile, discret. Il peut cheminer dans des environnements hostiles et emporter sur son dos divers capteurs. L’entreprise espère bien convaincre les armées de son utilité sur les futurs champs de bataille.

« Nous pensons que l'armée, dans la mesure où elle utilise la robotique pour mettre les gens hors d'état de nuire, est une utilisation parfaitement valable de cette technologie », a déclaré le vice-président du développement commercial de Boston Dynamics, Michael Perry, en avril en s’adressant à un média. « Avec ce modèle de déploiement avancé dont vous discutez, c'est quelque chose que nous devons mieux comprendre pour déterminer si oui ou non il est activement utilisé pour nuire aux gens ».

Spot n’était pas le seul robot terrestre testé ce jour-là : on pouvait aussi voir l’Ultro, une mule de transport, ou encore l’Optio 20 de Nexter, un robot tactique polyvalent équipé d’un canon et capable d’escorter des troupes… Toutes ces machines étaient manœuvrées à distance par un militaire.

Les « robots tueurs » deviendraient un sujet de recherche

La présence de robots aux côtés des combattants ne relève plus depuis longtemps de la science-fiction, pas plus que les systèmes automatisés. À terre ou sur mer, les missiles sol-air Aster sont capables d’identifier des cibles pénétrant leur périmètre de défense tout comme le système Phalanx CIWS sur les bâtiments américains.

Conscient de la compétition qui s’est engagée à l’international et des risques de « décrochages » pour l’armée française, le comité ne ferme toutefois pas la porte à la recherche dans « les domaines de l’intelligence artificielle de défense et des automatismes dans les systèmes d’armes ». Les travaux doivent « se poursuivre », selon l’avis du comité, considérant qu’il s’agit aussi là d’un moyen de se « défendre contre ce type d’armes au cas, qui n’est pas improbable, où un État adverse ou un groupe terroriste entreprendrait de les employer contre nos troupes ou la population française ».

La balle est maintenant dans le camp de la ministre des Armées qui doit examiner le texte attentivement avec ses équipes avant toute communication officielle. Nul doute que les associations de défense des libertés se manifesteront également. Human Rights Watch et Amnesty International militent depuis longtemps pour l'interdiction pure et simple des systèmes d'armes létaux autonomes. Une perspective que la France a toujours écartée.

Source : Avis du comité d’éthique de la défense

ET vous ?

Le comité dit « non » aux SALA et ouvre la voie aux SALIA. Quels commentaires en faites-vous ?
La porte de l’« IA et des automatismes dans les systèmes d’armes » reste toutefois ouverte à la recherche pour se « défendre contre ce type d’armes », dit le comité. Quel est votre avis à ce sujet ?
Que pensez-vous du développement des robots tueurs dotés d’IA ? Les pays qui les développent pourront-ils tomber d’accord sur des règles éthiques ?

Voir aussi :

L'armée française teste Spot, le chien-robot de Boston Dynamics, dans des scénarios de combat, ce qui soulève des questions quant à l'endroit où le robot sera déployé à l'avenir
La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes, et réclamer une initiative allemande
L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille, et appelle à interdire les robots-tueurs
La police de New York retire le robot "Digidog" après une réaction négative du public, et met fin à un contrat de 94 000 dollars avec Boston Dynamics

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 06/05/2021 à 12:21
Je pense ne jamais le dire assez. Les décideurs pensent à créer des SALA et ils ne parlent jamais de sécurité. Donc un piratage bien placé et on n'en parle plus.
7  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 06/05/2021 à 10:32
Citation Envoyé par Stan Adkens Voir le message

ET vous ?

Le comité dit « non » aux SALA et ouvre la voie aux SALIA. Quels commentaires en faites-vous ?
Je suis assez d'accord, la différence est assez importante. Il est important que l'armée française reste compétitive, tout en se dotant de règles qui permettent de garder un certain degré d'humanité.
Citation Envoyé par Stan Adkens Voir le message
La porte de l’« IA et des automatismes dans les systèmes d’armes » reste toutefois ouverte à la recherche pour se « défendre contre ce type d’armes », dit le comité. Quel est votre avis à ce sujet ?
Là encore, je suis du même avis. On ne peut pas imaginer que tous les pays, aient les mêmes retenues que nous (la Russie a déjà claqué la porte à une interdiction des SALA à l'ONU), il est donc impératif de se prémunir contre de telles armes.
Citation Envoyé par Stan Adkens Voir le message
Que pensez-vous du développement des robots tueurs dotés d’IA ? Les pays qui les développent pourront-ils tomber d’accord sur des règles éthiques ?
Je pense que c'est, hélas, inévitable. Quant à un consensus sur des règles éthiques, je n'y crois pas. Cf la réaction de la Russie à l'ONU. Et, ce ne seront pas les seuls, la Chine sera dans le même état d'esprit.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 06/05/2021 à 16:07
Citation Envoyé par Stan Adkens Voir le message

La porte de l’« IA et des automatismes dans les systèmes d’armes » reste toutefois ouverte à la recherche pour se « défendre contre ce type d’armes », dit le comité. Quel est votre avis à ce sujet ?
Comme ça a été dit plus haut, se défendre ne veut pas forcément dire développer la même cochonnerie. Ça peut être de développer des contre-mesures pour rendre ces armes inopérantes.

Il ne faut pas oublier que la France exporte ses armes, comme beaucoup de pays, et que ce n'est pas parce que notre armée ne les utilise pas contre nous (et encore, ça peut changer) que ça ne va pas être le cas ailleurs.

Quand je travaillais en France, mon collègue assis à côté de moi était Tunisien. Je me rappelle qu'il suivait avec anxiété les informations au fil de l'eau lors de la révolution (Printemps Arabe). À l'époque, la seule chose qui a empêché un véritable bain de sang dans son pays, c'était que l'armée s'était rangée du côté des manifestants. Ça aurait été impossible avec des #$@+ d'armes autonomes - armes qui aurait sans doute été Françaises, vu les liens qu'entretenait la France avec la dictature de Ben Ali

Citation Envoyé par Stan Adkens Voir le message

Que pensez-vous du développement des robots tueurs dotés d’IA ?
Je pense que vous aurez tous compris que je ne suis pas emballé par ce genre d'armes (et même d'armes tout court dès lors qu'il s'agit d'attaque et non de défense, et la frontière est très très mince).

Citation Envoyé par Jon Shannow Voir le message

[...] On ne peut pas imaginer que tous les pays, aient les mêmes retenues que nous (la Russie a déjà claqué la porte à une interdiction des SALA à l'ONU) [...]
Quant à un consensus sur des règles éthiques, je n'y crois pas. Cf la réaction de la Russie à l'ONU. Et, ce ne seront pas les seuls, la Chine sera dans le même état d'esprit.
Je partage ton point de vue sur l'impossibilité d'arriver à un consensus sur l'éthique.

Je veux souligner le fait que malheureusement, ne pas tenir compte des résolutions de l'ONU est plus courant qu'on essaye de nous le faire croire et que les USA pourraient être dans ton exemple (Kosovo sous Clinton par exemple) avec plein d'autres pays (Inde, Pakistan, Israël, etc...).

Si consensus il y avait, ce serait un truc pas respecté par la plupart des acteurs, comme les conventions de Genève, par exemple.
2  0 
Avatar de Jsaintyv
Membre régulier https://www.developpez.com
Le 06/05/2021 à 11:13
Si un ennemi dispose d'arme SALA, il pourra pleinement mettre en place des système de brouillage qui n'impacteront pas leur arme.
mais rendra inopérante les SALIA.

Il faut juste espérer que l'humanité sera apprendre de ces erreurs passés et de ne pas avoir besoin de ce type de saloperie.
1  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 06/05/2021 à 11:23
Citation Envoyé par Stan Adkens Voir le message

Le comité dit « non » aux SALA et ouvre la voie aux SALIA. Quels commentaires en faites-vous ?
La porte de l’« IA et des automatismes dans les systèmes d’armes » reste toutefois ouverte à la recherche pour se « défendre contre ce type d’armes », dit le comité. Quel est votre avis à ce sujet ?
Il faut en effet distinguer les armes parfaitement autonomes visant à tuer des humains et des armes parfaitement autonomes pour se protéger contre d'autres armes parfaitement autonome.

Il ne faut pas se leurrer : se limiter dans la recherche des SALA va nous limiter énormément dans la recherche de la protection contre les SALA si on demande à un humain la même réactivité pour prendre des décisions pour un SALIA contre un SALA, le SALIA sera systematiquement détruit par le SALA.

En ça, il faut absolument réussir à créer des SALA capable de repérer que la cible n'est pas humaine.
Un SALA qui repère qu'une cible n'est pas humaine est donc capable de repérer qu'une cible est humaine et est donc susceptible d'être détournée de son but éthique...

En bref, avec des SALA, on est pas éthiques et mal barrés.
Sans SALA, on est juste mal barrés.

Que pensez-vous du développement des robots tueurs dotés d’IA ? Les pays qui les développent pourront-ils tomber d’accord sur des règles éthiques ?
Les règles et les conventions malheureusement n'engagent que ceux qui y croient. Et elles sont assez vites contournées... Les USA n'ont jamais eu de soucis sérieux avec leur utilisation du NAPALM qui pourtant était interdit par la convention de Genève vu qu'il ne visait pas des militaires mais n'importe qui dans la zone, potentiellement des innocents.

Un autre exemple, l'utilisation des canons français contre le Yemen, dans l'accord de vente, les pays "sont tombés d'accord sur les règles éthiques" de ne se servir des canons qu'en cas de guerre ouverte, contre des populations militaires uniquement et surtout, surtout pas des populations civiles. Keskicépassé ? ah bah "des tirs d'entrainements" à la frontière qui visaient des villages civils dans le cadre d'une guerre informelle uniquement.
Conséquences ? Aucunes...

A noter que des contraintes équivalentes existent sur les tanks allemands modernes vendus aux turcs, et les turcs les respectent : pour taper sur les kurdes (population civile hors période de guerre ouverte donc) ils sortent des tanks américains de la seconde guerre mondiale qui n'ont pas ces contraintes...

Enfin, même si les accords éthiques sont signés, que le développement est éthique, il reste l'application. Par exemple les drones américains sont des déjà des SALIA. Quand un drone fait une suggestion et que l'opérateur valide coup sur coup sans prendre le temps de réfléchir (cf. bombardement mariages), cela revient à faire un SALA moins efficace et pas bien plus éthique...

Bref, la guerre, c'est moche, la diplomatie, c'est hypocrite. Il faut être prêt à tout pour se défendre.
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 06/05/2021 à 18:36
Citation Envoyé par eric44000 Voir le message
Le comité dit « non » aux SALA et ouvre la voie aux SALIA. Quels commentaires en faites-vous ?
Les missiles autoguidés (infra-rouge, électromagnétique...) et les torpilles autonomes (détection acoustique, de sillage...) sont aussi des SALA. La seule différence est l'emploi à posteriori, quand la menace a été détectée alors que les robots tueurs l'est à priori (comme une mine explosive). Pourquoi dans ce cas dire non ? Est-ce par peur de bavures (confusion d'une femme civile avec son enfant d'un combattant en djellaba avec un nain) ? Par ailleurs le leurrage et le camouflage les rendraient facilement inopérants.
Justement, puisqu'on en parle. Une mine explosive c'est typiquement le genre de m... qui te pourrit un pays pendant une éternité. Il y a de bonnes raisons de dire non. On est loin d'un bouclier anti-missiles par exemple, qui est une arme de défense et non d'attaque.

Quant aux bavures, tu sembles penser que l'armée n'interviendra toujours qu'en Irak ou en Afghanistan. Attends un peu qu'on leur demande de calmer des révoltes ou des insurrections en France (DOM-TOM y compris).

Quand il s'agira de ta mère, les bavures te feront sans doute bien plus peur... Un être humain reste un humain, quel que soit son pays ou ses origines ethniques. Un meurtre reste un meurtre, que ce soit celui d'un civil de passage, d'un policier, d'un manifestant, ou d'un insurgé.

Citation Envoyé par eric44000 Voir le message

Quant aux SALIA, c'est un SALA qui demande confirmation. Mais quid du brouillage ?
Tout à fait. Je dirais même qu'il y a un autre point que l'on a vu avec les drones et leurs opérateurs: la déresponsabilisation. "Ce n'est pas moi qui tue, c'est le système". Alors pardonne-moi du peu, mais il y a une grande différence entre un soldat et une arme autonome ou semi-autonome

Citation Envoyé par eric44000 Voir le message

La porte de l’« IA et des automatismes dans les systèmes d’armes » reste toutefois ouverte à la recherche pour se « défendre contre ce type d’armes », dit le comité. Quel est votre avis à ce sujet ?
Que faire contre une nuée de drones qui tirent sur tout ce qui bouge ? L'impulsion magnétique avec des SALA serait suicidaire, pas pour un humain.
C'est un très bon point. C'est là que rechercher des armes de défense devient pertinent.
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 07/05/2021 à 9:47
Citation Envoyé par eric44000 Voir le message

Le minage défensif (terrestre ou maritime) existe. Vous devez faire allusion aux mines anti-personnels d'avant 1997.
Oui, exactement. Je pensais bien aux mines anti-personnels.

Citation Envoyé par eric44000 Voir le message

J'ai pris un exemple réaliste de confusion que l'IA peut faire sur un théâtre actuel et ne faisais donc pas allusion à l'Irak ou l'Afghanistan. C'était pour illustrer qu'elle n'est pas infaillible et tenter de trouver une raison (peur des bavures) au refus du comité d'éthique de l'armée. J'aurai eu du mal à prendre un exemple sur le soi-disant push des généraux (démenti par eux-même), après je vous laisse à votre imagination.
Au temps pour moi. Je n'avais pas compris là où vous vouliez en venir. Pour ce qui est de mon imagination, intéressez-vous un peu à l'histoire moderne et essayez d'anticiper et de penser aux conséquences. C'est sûr que si il faut attendre la bouche ouverte que quelque chose arrive pour en mesurer les conséquences alors on ne va pas aller bien loin dans le débat. C'est pourtant au cœur de notre quotidien en informatique: comprendre un problème, établir des scenarii possibles, en mesurer les conséquences, et éventuellement examiner la plausibilité de chaque cas en fonction des solutions et de leurs coûts.

Citation Envoyé par eric44000 Voir le message

Votre vision du futur est délirante. Quant à avoir peur, et bien non, il ne faut pas en avoir peur. Comme ils détectent leur cibles à optiquement et thermiquement, une simple couverture humide suffit à être invisible.
Délirante? Vraiment? Avez-vous déjà oublié les émeutes qui ont déclenché des mouvements tels que "BlackLivesMatters"? Il est vrai que c'était pré-COVID et que tout le monde ne parle plus que du COVID. Mais l'histoire moderne est pleine de révoltes populaires et de l'emploi des forces armées ou de la police pour les "calmer".

Pensez-vous que les défauts que vous évoquez n'ont pas été constatés par l'armée? Pensez-vous que l'armée ne cherchera pas à améliorer des armes qui vont sans doute lui coûter un bras?

Citation Envoyé par eric44000 Voir le message

Si vous croyez que les jeunes tueurs qui étaient derrières leurs consoles la journée n'avaient pas de remords le soir, c'est bien mal les connaitre.
J'ai connu des anciens snipers de l'armée Française qui eux avaient clairement des problèmes psychologiques du fait de leur ancien travail. Je ne connais pas d'opérateur de drones mais visiblement vous semblez en connaître? Je peux tout à fait imaginer que certains auront des remords - en fait je l'espère même, pour le salut de l'espèce humaine.

Par contre je reste persuadé, qu'il est plus facile de tuer quelqu'un derrière un écran de manière semi-passive (en ne faisant que donner des confirmations) que de faire le sale boulot soi-même. Je peut avoir tort, mais les articles récents sur la "gamification" des armes (ex: interfaces, manettes XBox dans des tanks, etc) va dans mon sens.

Citation Envoyé par eric44000 Voir le message

Les IEM sont éprouvées. Les guerres de robots avec fusils laser, c'est pour plus tard.
Là pour le coup, si vous pensez que je fais référence à une scène à la Terminator, c'est vous qui délirez. Je faisais allusion à des armes défensives telles que celles-ci.
1  0 
Avatar de eric44000
Membre averti https://www.developpez.com
Le 06/05/2021 à 18:03
Le comité dit « non » aux SALA et ouvre la voie aux SALIA. Quels commentaires en faites-vous ?
Les missiles autoguidés (infra-rouge, électromagnétique...) et les torpilles autonomes (détection acoustique, de sillage...) sont aussi des SALA. La seule différence est l'emploi à posteriori, quand la menace a été détectée alors que les robots tueurs l'est à priori (comme une mine explosive). Pourquoi dans ce cas dire non ? Est-ce par peur de bavures (confusion d'une femme civile avec son enfant d'un combattant en djellaba avec un nain) ? Par ailleurs le leurrage et le camouflage les rendraient facilement inopérants.
Quant aux SALIA, c'est un SALA qui demande confirmation. Mais quid du brouillage ?

La porte de l’« IA et des automatismes dans les systèmes d’armes » reste toutefois ouverte à la recherche pour se « défendre contre ce type d’armes », dit le comité. Quel est votre avis à ce sujet ?
Que faire contre une nuée de drones qui tirent sur tout ce qui bouge ? L'impulsion magnétique avec des SALA serait suicidaire, pas pour un humain.

Que pensez-vous du développement des robots tueurs dotés d’IA ? Les pays qui les développent pourront-ils tomber d’accord sur des règles éthiques ?
C'est une erreur. Pour le renseignement, pourquoi pas ? Pour ce qui est de l'éthique un accord (peu probable) ne garantirait pas l'emploi par ceux qui les développent secrètement.
0  0 
Avatar de tanaka59
Inactif https://www.developpez.com
Le 10/05/2021 à 19:17
Bonsoir

Le comité dit « non » aux SALA et ouvre la voie aux SALIA. Quels commentaires en faites-vous ?
A défaut de faire des recherches pour l'armée , quid des recherches pour les secouristes ? On parle souvent des technos militaires ... Quid pour les pompiers (combattre un feu ou un incident important ... ) . La France préfère toujours dire un non bête et méchant idéologiquement en laissant filer les bonnes idées ... et ces ingénieurs avec.

La porte de l’« IA et des automatismes dans les systèmes d’armes » reste toutefois ouverte à la recherche pour se « défendre contre ce type d’armes », dit le comité. Quel est votre avis à ce sujet ?
Le robot tueur à la sauce Terminator est juste un délire SF (science fiction ...) , donc il y aura toujours de la recherche sur des systèmes de défenses d’assistance. Aide au pilotage, tire, camouflage ...

Que pensez-vous du développement des robots tueurs dotés d’IA ?
Des futurs machines incontrôlable ... Quid du risque non pris en compte ? Comme la Tesla qui se crache a cause de l'autopilote ...

Les pays qui les développent pourront-ils tomber d’accord sur des règles éthiques ?
Il n'y a pas d'éthique à en tirer ... Ceux qui chercherons ouvrirons volontairement la boite de pandore avant les autres. Histoire de ne pas se faire emmerder.

Citation Envoyé par AoCannaille
Un autre exemple, l'utilisation des canons français contre le Yemen, dans l'accord de vente, les pays "sont tombés d'accord sur les règles éthiques" de ne se servir des canons qu'en cas de guerre ouverte, contre des populations militaires uniquement et surtout, surtout pas des populations civiles. Keskicépassé ? ah bah "des tirs d'entrainements" à la frontière qui visaient des villages civils dans le cadre d'une guerre informelle uniquement.
Conséquences ? Aucunes...

A noter que des contraintes équivalentes existent sur les tanks allemands modernes vendus aux turcs, et les turcs les respectent : pour taper sur les kurdes (population civile hors période de guerre ouverte donc) ils sortent des tanks américains de la seconde guerre mondiale qui n'ont pas ces contraintes...
Dans les années 1980 tu as l'Iran qui a tenté de faire voler des F14 US ... avec des moteurs soviétiques ... De nos jours ils continuent même de voler : https://sciencepost.fr/quest-il-arri...ee-americaine/ , https://www.sxminfo.fr/124859/03/01/...ieres-du-pays/

Citation Envoyé par Ryu2000
Quand tu te prépares ta défense militaire la paranoïa peut te pousser à la surenchère. (parce que tu ne peux pas connaitre les armes secrètes de l'ennemi, t'es obligé d'aller loin)
La Chine et la Russie sont obligés de développer des armes, car les USA ont de l'avance dans le domaine, ce pays est une menace il faut donc être prêt à se défendre.
Canon Gustav , Le Mousse, Mine Raumer , V1/2/3 , Léopold , avion a propulsion ... Quelques une des folies hitleriennes ... Aux plus c’était gros au plus c'etait censé être efficace ... On connait le résultat

Les russes aussi sont pas mal dans ce domaine (du moins durant l'air soviétique ...) Comme les Sukoi et Tupolev à propulsion nucléaire . Plus récement le Koalitsiya-SV et l'Armata aussi était pas mal chez les russes. Les nord-coréens se sont lancés dans la version d'un scud 4XL : https://fr.sputniknews.com/asie_paci...-coreen-geant/ , un Scud greffé de 3 essieux arrière ... Il doit sacrément faire mal le supo
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 06/05/2021 à 16:24
Citation Envoyé par marsupial Voir le message
Donc un piratage bien placé et on n'en parle plus.
C'est peut-être pour ça que l'UE aimerait produire ses propres processeurs :
L’UE s’engage à investir jusqu’à 145 milliards d’euros pour développer des semi-conducteurs et des processeurs de nouvelle génération et faire évoluer le procédé de gravure à 2 nm pour les processeurs

La probabilité que la NSA ait contraint Intel et AMD d'installer des portes dérobées dans leur processeurs est élevé. Il y a eu les histoires de Spectre et Meltdown, mais il y a probablement d'autres choses. On ne peut pas faire confiance au software et à l'hardware US.

=====
Quand tu te prépares ta défense militaire la paranoïa peut te pousser à la surenchère. (parce que tu ne peux pas connaitre les armes secrètes de l'ennemi, t'es obligé d'aller loin)
La Chine et la Russie sont obligés de développer des armes, car les USA ont de l'avance dans le domaine, ce pays est une menace il faut donc être prêt à se défendre.
1  2