IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Royaume-Uni et ses alliés cherchent à armer l'Ukraine avec des essaims de drones animés par intelligence artificielle
Et ravive le débat sur l'utilisation de l'IA sur les champs de bataille

Le , par Patrick Ruiz

0PARTAGES

5  0 
Le Royaume-Uni collabore avec d'autres pays, dont les États-Unis, pour fournir à l'Ukraine des milliers de nouveaux drones animés par intelligence artificielle et capables d'attaquer des cibles russes. Le tableau ravive le débat sur l’utilisation de l’intelligence artificielle sur les champs de bataille. En effet, il intervient dans un contexte de protestations contre l’IA militaire et l’AGI et fait suite à plusieurs échecs des négociations sur les robots tueurs au niveau des Nations unies.

« Je suis fier d'annoncer que le Royaume-Uni et la Lettonie prendront la tête d'une coalition internationale pour développer des drones vitaux pour l'Ukraine. Ensemble, nous fournirons à l'Ukraine les capacités dont elle a besoin pour se défendre et gagner cette guerre afin que Poutine soit vaincu dans ses ambitions illégales et barbares », annonce le ministre de la Défense du Royaume-Uni.

Les participants à cette initiative indiquent que les drones dotés d'intelligence artificielle seront déployés en grandes flottes qui communiqueront entre elles pour cibler les positions russes, sans qu'aucun opérateur humain ne soit nécessaire pour contrôler chacune d'entre elles.



Une initiative en cours de gestation dans un contexte de protestations

Des manifestations sont organisées par les groupes Pause AI et No AGI. Elles demandent sans détour aux ingénieurs d’entreprises comme OpenAI et Google d’abandonner leurs travaux sur des systèmes d’intelligence artificielle à usage militaire et sur l’intelligence artificielle générale.



Ces manifestations font suite à la suppression par OpenAI, le mois dernier, d'une clause de sa politique d'utilisation qui interdit l'utilisation de l'intelligence artificielle à des fins militaires et au début de la collaboration de l’entreprise avec le Pentagone.

Jusqu'au 10 janvier, la page des « politiques d'utilisation » d'OpenAI comprenait une interdiction des « activités présentant un risque élevé de dommages physiques, y compris », plus précisément, le « développement d'armes » et les « activités militaires et de guerre ». Cette interdiction des applications militaires, formulée en termes clairs, semble exclure toute utilisation officielle, et extrêmement lucrative, par le ministère de la défense ou toute autre armée nationale. La nouvelle politique conserve l'injonction de ne pas « utiliser notre service pour vous nuire ou nuire à autrui » et donne comme exemple « le développement ou l'utilisation d'armes », mais l'interdiction générale de l'utilisation « militaire et de guerre » a disparu.

« Plusieurs laboratoires spécialisés en intelligence artificielle et experts se rejoignent : l’IA est susceptible d’exterminer l’humanité », souligne Pause AI sur son site web.

« Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et l’intelligence artificielle générale (AGI) », confirme le scientifique en chef d’OpenAI dans un documentaire.


L’intelligence artificielle sert déjà à traquer des cibles sur les théâtres de guerre et à tuer sans intervention humaine

Suite aux attaques menées par les militants du Hamas le 7 octobre de l’année précédente, les forces israéliennes ont frappé plus de 22 000 cibles à l'intérieur de Gaza. Pour y parvenir, elles mettent à contribution une intelligence artificielle dénommée « Gospel » afin d'identifier en temps réel le plus grand nombre de cibles ennemies.


En effet, en septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès". Elle se vante d'avoir réussi à "combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle".


La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

« Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'homme s'inquiètent de "la déshumanisation numérique des systèmes d'armes".

Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

Un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

Le développement d’armes autonomes se poursuit donc en parallèle de la multiplication des appels à réglementer les usages de l’intelligence artificielle à l’échelle mondiale

L’un des plus récents est celui du Pape François. Ce dernier appelle à un traité international juridiquement contraignant pour réglementer l'intelligence artificielle. Motifs : les algorithmes ne doivent pas être autorisés à remplacer les valeurs humaines et l’humanité doit éviter de tomber dans une dictature technologique qui menace l’existence humaine. Le pape a lancé cet appel dans un message dans le cadre des préparatifs de la Journée mondiale de la paix qui se célèbre tous les 1ers janviers par l’Eglise catholique romaine. Le titre du message, qu’il est de tradition d’envoyer aux dirigeants mondiaux et aux responsables d'institutions telles que les Nations unies, est « L'intelligence artificielle et la paix. »

Le dernier message du Pape s’inscrit dans la continuité du Rome Call for an AI Ethics. Cette initiative du Vatican vise à appeler les intervenants mondiaux à la mise sur pied de normes éthiques plus strictes en matière de développement d’intelligence artificielle. IBM et Microsoft sont les premières entreprises à s’y arrimer, suivis du gouvernement italien et de l’Organisation des Nations Unies pour l’alimentation et l’agriculture.

Le Rome Call For an AI Ethics énonce 6 grands principes : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée. Grosso modo, ces derniers stipulent que la technologie (l’intelligence artificielle) doit être mise sur pied dans le but de protéger les personnes ; en particulier, les faibles et les défavorisés.

Le Vatican veut s'assurer que les entreprises n'utilisent pas l'intelligence artificielle comme un moyen de collecter des données sans le consentement des individus, puis de les utiliser à des fins commerciales ou politiques.

« Sur le plan personnel, l'ère numérique modifie notre perception de l'espace, du temps et du corps, et sur le plan socio-économique, les utilisateurs sont souvent réduits à des "consommateurs", en proie à des intérêts privés concentrés dans les mains de quelques-uns. Les algorithmes extraient désormais des données qui permettent de contrôler les habitudes mentales et relationnelles à des fins commerciales ou politiques, ce, souvent à notre insu. L'asymétrie par laquelle un petit nombre d'élus savent tout de nous alors que nous ne savons rien d'eux ternit la pensée critique et l'exercice conscient de la liberté », a déclaré le Pape François.

Le Rome Call For an AI Ethics stipule en sus qu’un devoir d’explication doit faire l’objet d’instauration et que les algorithmes basés sur l'intelligence artificielle doivent fournir aux individus des informations sur la manière dont ces derniers ont abouti à leurs décisions afin de garantir qu'il n'y a pas de biais.

Les échecs des négociations sur les robots tueurs aux Nations unies jettent un doute sur la perspective de l’atteinte d’un règlement mondial juridiquement contraignant sur l’intelligence artificielle

L’intelligence artificielle est vue comme la clé du futur pour dominer sur les nations et c’est peut-être là l’explication principale des échecs à répétition des négociations aux Nations unies sur les robots tueurs. La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes.

Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis par exemple sont sur des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.

Cet autre échec des discussions à l’ONU faisait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

Source : Pravda

Et vous ?

Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
Pensez-vous qu’OpenAI a bien fait de modifier sa politique d’utilisation de ses outils ?Quels sont les avantages et les inconvénients de l’utilisation de l’intelligence artificielle à des fins militaires ?
Comment OpenAI peut-elle garantir que ses outils ne seront pas utilisés pour développer ou utiliser des armes ?
Comment les travailleurs de la technologie peuvent-ils exprimer leurs préoccupations ou leur opposition à des projets militaires impliquant l’intelligence artificielle ?
Êtes-vous surpris de voir des entreprises comme OpenAI ou Google collaborer avec l’armée sur des projets d’IA militaire ?
Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gluups
Membre émérite https://www.developpez.com
Le 02/04/2024 à 23:57
Et ça avec une acuité croissante.
Pompidou a offert nos économies aux banques en les autorisant à prêter à l'État, mais à l'époque personne n'a capté l'enjeu.
Mais ensuite le mépris est allé croissant.
Avec peut-être une exception à la fin : il n'apparaît guère possible d'être pire que Hollande.

Enfin ... Il est vrai que je dis ça avant la faillite.

Chirac est un cas particulier. Il n'en a pas fichu une rame pendant tout son mandat (à part parler, très bien d'ailleurs), mais comparé aux autres ça en fait presque un saint.
5  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 02/04/2024 à 23:24
Citation Envoyé par Gluups Voir le message
Ben ... Tu regardes les distributions d'allocations aux copains et le développement de vaccins expérimentaux en pure perte pendant le Covid ("quoi qu'il en coûte", avec l'omerta sur le rôle de la vitamine D, et le silence radio en face pendant ce temps, et tu as déjà un indice.
Ma question était purement d’ordre rhétorique. J'ai bien conscience que la réponse est :
"La corruption, au moins morale, des dirigeants, qui aident les multinationale à se servir à volonté dans les caisses de l'Etat, donc à piller l'argent publique"
Par exemple tous les emprunt faits pendant la crise covid ont été des emprunts indexés sur l'inflation, alors que les taux d'emprunts étaient à zéro et qu'ils savaient que l'on allait avoir de l'inflation, et ça continue, ils continuent à faire des emprunts indexés sur l'inflation pour le plus grand bonheur des banques ( qui nous prêtent de l'argent qui n’existe que sur un écran d'ordinateur ). Le trésors public s'en vante sur son compte Twitter pour ceux qui voudraient vérifier. Bonjours les intérêts que l'on va payer. Et ça ne relève d'aucune nécessité, c'est tout simplement de la haute trahison, un pillage organisé par des criminels.
4  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 02/04/2024 à 23:02
Citation Envoyé par nikau6 Voir le message
des questions sur comment l'argent est dépensé chez nous.
Ben ... Tu regardes les distributions d'allocations aux copains et le développement de vaccins expérimentaux en pure perte pendant le Covid ("quoi qu'il en coûte", avec l'omerta sur le rôle de la vitamine D, et le silence radio en face pendant ce temps, et tu as déjà un indice.
3  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 02/04/2024 à 23:35
Citation Envoyé par nikau6 Voir le message
Et ça ne relève d'aucune nécessité, c'est tout simplement de la haute trahison, un pillage organisé par des criminels.
Absolument.
D'ailleurs c'est intéressant d'étudier les évolutions de la constitution : chaque président abroge la loi l'article qui explicite le caractère illicite de ce que fera son successeur.
3  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 02/04/2024 à 22:04
Ça fait déjà quelques mois que j'avais lu que la Russie utilisait des drones autonomes, avec acquisition automatique de cibles même après avoir perdu la connexion avec les pilotes.
Donc soit c'est de la propagande OTANO-Kévienne, comme ils avaient voulu faire croire qu'ils pouvaient abattre les missiles hypersoniques Russe, soit c'est de la technologie de l'OTAN pour remettre l'Ukraine à niveau vis à vis des Russes.
Je posterais l'article si je le retrouve.

Sinon dans le genre drone autonome, les Russes ont développé le drone "Sukhoi Okhotnik". Mais c'est pas le même genre de drone, plus sophistiqué, et beaucoup plus chère à produire.

https://reseauinternational.net/le-sukhoi-okhotnik-cest-le-premier-drone-de-frappe-autonome-de-la-russie/

Mais également celui-ci :
https://www.capital.fr/economie-politique/guerre-en-ukraine-la-russie-teste-ses-nouveaux-drones-autonomes-ikhonodets-sur-le-terrain-1432487

Le fait que la Russie, avec un budget militaire plus ou moins égale au notre, arrive à développer ce genre d'engin devrait nous amener à nous poser des questions sur comment l'argent est dépensé chez nous. Ils ont des avions de chasse de cinquième génération. Ils sont leader dans le domaine de la guerre électronique, dans la défense anti-missile, avec les S-400 et les S-500, et ils dominent dans le domaine de l'hypersonique, ils ont développé des sous-marins autonomes (le Poséidon) qui peuvent aller à plus de 200 km/h sous l'eau, le sous-marin avance dans une bulle d'air, ils ont des missiles à propulsion nucléaire, en phase de test, qui peuvent faire 10 fois le tour de la terre avant d'atteindre leur cible. On fait quoi de l'argent en occident ?

https://fr.wikipedia.org/wiki/Status-6_Pose%C3%AFdon
1  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 02/04/2024 à 23:43
Citation Envoyé par Gluups Voir le message
Absolument.
D'ailleurs c'est intéressant d'étudier les évolutions de la constitution : chaque président abroge la loi l'article qui explicite le caractère illicite de ce que fera son successeur.
C'est une mafia ! La pire des mafias qui n'ait jamais existé ! Je préférais Al Capone, au moins il avait une certaine classe. Parce que le pire, c'est que les membres de cette mafia gouvernementale sont physiquement des lâches, des avortons. Si on pouvait leur mettre la main dessus, une gifle suffirait pour qu'il se mettent à genoux en pleurant.
1  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 03/04/2024 à 0:15
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 04/04/2024 à 16:15
Ah, ça ira, ça ira !

(Ah non c'est vrai là il est question de boules plus grosses)
0  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 04/04/2024 à 18:00
Citation Envoyé par nikau6 Voir le message
ils ont développé des sous-marins autonomes (le Poséidon) qui peuvent aller à plus de 200 km/h sous l'eau, le sous-marin avance dans une bulle d'air,
Euh, un sous-marin qui avance dans une bulle d'air, ça s'appelle pas une fusée (ou un missile) ?

Et comment ça se passe quand l'engin est au bout de la bulle d'air ? Elle se déplace, cette bulle d'air ? À 200 km/h ? Et qui la pilote, et comment ?

Et sinon, complètement flippant, ce lien : https://fr.wikipedia.org/wiki/Status-6_Pose%C3%AFdon

Tout ça risque de mal, très mal finir, et comme je dis toujours, on se retrouvera (enfin, certains seulement) avec des massues dans des cavernes, et plus qu'à recommencer l'Histoire...
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 04/04/2024 à 18:30
Le coup de la bulle, on a déjà eu des exemples dans le passé, des trains qui se déplacent sur coussin d'air par exemple.

L'histoire des cavernes sonne hélas très véridique.
Malgré ça les gens en ont redemandé l'année dernière (ou il y a deux ans ? Ça passe si vite ...) tout en récriminant.

L'idée que les gens acceptent de se retrouver tout-à-coup avec seulement la moitié de leurs ressources à l'âge où ils pourraient en profiter, est déjà de très mauvaise augure d'entrée de jeu. Et la précision que ça ne concerne que quelques privilégiés n'arrange rien.

Si en plus avec les yeux qui clignent j'écris prévision au lieu de précision, alors là on n'est pas sortis de l'auberge.
0  0