IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le chercheur en IA Max Tegmark estime qu'il faut mettre un terme aux progrès de l'IA et empêcher la création des AGI
En veillant à ce que l'IA ne devienne qu'un outil et non une superintelligence

Le , par Jade Emy

33PARTAGES

15  0 
Les efforts de l'ONU pour réglementer l'usage militaire de l’IA et des SALA pourraient échouer
À cause notamment des positions russes et américaines

Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes (SALA), des robots de guerre pour faire simple, se sont tenues ces derniers mois à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.

À ce sujet, l’avis de la France est qu’il faudrait approfondir la distinction entre les systèmes dotés « d’automatismes », de complexité variable, et les systèmes « autonomes », qui ne font appel à aucune mesure de supervision humaine. La dernière rencontre officielle en date a eu lieu du 22 au 24 novembre 2017.

Il faut rappeler que des personnalités de renom comme l’astrophysicien britannique Stephen Hawking ou des chefs d’entreprises comme l'américain Elon Musk ont, à plusieurs reprises déjà, appelé à l’interdiction pure et simple des SALA. Dans une lettre ouverte rédigée à l'occasion de la 24e Conférence internationale sur l’IA (intelligence artificielle) en de juillet 2015, ces lanceurs d'alerte ont déclaré :

« Nous croyons que l’intelligence artificielle recèle un grand potentiel pour l’humanité de bien des manières, et cela doit être son objectif. L’utiliser pour se lancer dans une course aux armements est un projet néfaste. Il doit être empêché par une interdiction totale des armes offensives autonomes, qui fonctionnent sans contrôle humain significatif. »

« Si une grande puissance militaire progresse avec le développement d’armes liées à l’intelligence artificielle, une course mondiale aux armements est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les kalachnikovs de demain. »

Tous les signataires de cette lettre ouverte ont estimé que l’absence d’un consensus qui permettrait d’encadrer le développement de l’intelligence artificielle dans le domaine militaire ouvrirait la voie à un scénario catastrophe dans lequel les machines seraient dotées de la capacité de tuer sans qu’il soit nécessaire de faire intervenir obligatoirement l’Homme.

En marge de la dernière réunion qui s’est tenue dans la capitale suisse, Moscou a souhaité envoyer un message fort à tous ceux qui voudraient dissuader la Russie de développer la technologie des robots de guerre, les fameux SALA.

D’après un rapport fourni par le site DefenceOne.com, une déclaration du gouvernement russe datant du 10 novembre dernier fait état de la ferme opposition du Kremlin contre toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU.

Comme l’a expliqué Dmitri Ostaptchouk, le DG de 766 UPTK — l’entreprise militaire russe spécialisée dans la production de robots —, au média russe RT : « Le développement des robots au sein des forces armées est inévitable puisque les systèmes électroniques dépassent déjà l’être humain dans toutes les capacités. » De ce fait, le point de vue de la Russie semble clair et inflexible : quoi qu’il arrive la Russie développera et construira des SALA.

D’après la Fédération de Russie, « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité. »

Il faut également préciser que de leur côté, les États-Unis estiment qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump dit soutenir le processus de la CCAC.

Le kremlin estime que les SALA représentent une catégorie d’armes extrêmement large et complexe dont la compréhension actuelle de l’humanité est plutôt approximative. Moscou ne comprend donc pas pourquoi des mesures préventives aussi prohibitives et restrictives devraient être envisagées. Sans parler du fait que, par le passé, plusieurs traités internationaux visant à contrôler la prolifération de systèmes d’armements particuliers (chimique, nucléaire ou autre) n’ont pas empêché certains États de développer ou d’utiliser ces armes interdites.

Source : DefenceOne, Publication de la Russie (PDF), Le monde diplomatique, RT

Et vous ?

Qu’en pensez-vous ?

Voir aussi

La Russie se prépare à envoyer un robot capable de tirer avec des pistolets à l'ISS ? Il ne s'agit pas d'un Terminator assure le vice-président russe
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique
Vous avez lu gratuitement 0 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 13/11/2024 à 9:16
Ces avis confirment que l'AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle,
N'est-ce pas ce a quoi est confronté l'espèce humaine actuellement ?
Mais en quoi est-ce un choix ?


Ma théorie c'est de la merde
Hmm, ça c'est un peu le problème avec les théories ...
#liminai_colossus:
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 13/11/2024 à 13:31
Je ne vois pas comment un ASIC peut aider à la sécurité… ou plutôt, des tâches touchant de près ou de loin à la sécurité (MMU, TPM…) sont déjà intégré dans nos PC. Il faut des ASIC qui ne soient pas complètement contrôlé par nos PC (façon TPM où ll n’y a pas d’interface pour extraire les clés secrètes), mais pour faire quoi ?

Non, la bonne approche est le développement de logiciels sûrs façon seL4. Cela coûte 7 fois le prix (pour une année de développement, 6 pour les éléments de preuve)… en espérant que l’IA change favorablement ce ratio !
1  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 14/11/2024 à 7:47
Il trace une limite à ne pas franchir et décide donc de stopper son avancée technologique, c'est sa volonté.
Cependant, chaque personne a sa propre volonté, tout comme le reste de l'humanité.
Lorsque deux concurrents s'affrontent et que l'un des deux choisit de rester à l'âge de pierre, lequel des deux se fait écraser ?
1  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 13/11/2024 à 22:55
Un "bitaxe" a 150 euros éclate les meilleurs cartes graphiques pour le bitcoin

Les ASICs peuvent être vus comme des coprocesseurs ultra rapides...

Peut être qu'en cybersécurité ils peuvent avoir un rôle...C'est juste une idée

L' "inline_assembly" n'existe pas pour rien....Les ASICs non plus

Portions critiques du code
0  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 13/11/2024 à 23:36
L'inline_assembly n'existe que pour gagner en vitesse (en supposant que tu optimises mieux que le compilateur), ou pour coder des choses que le langage support ne sait pas gérer (masquage des interruptions (STI/CLI), commutation de tâche, instructions SIMD (SSE)). On ne gagne pas vraiment en sécurité.

Un ASIC sera une réponse pour des choses plus simple que ce que tu gèrerait avec un CPU, mais tu souhaites de la vitesse et ou de l'éfficacité énergétique. Cela va te permettre de créer un parefeu matériel par exemple - c'est une fonction de sécurité. Reste à voir si une implémentation matérielle peut filtrer les mails et PJ (sans compter le problème de mises à jour dès qu'un nouveau type de PJ autorisé doit être supporté).

Mais ce n'est pas parce que c'est une bonne option dans certains cas que cela résout tous les autres problèmes.

Je pense que l'on gagnera probablement plus en sécurité avec la généralisation de logiciel sans débordement de mémoire (Rust, C#, Ada...). Et le Graal ce sont les approches formelles (Spark de AdaCore, autre avec seL4...)
0  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 14/11/2024 à 0:15
En banalisant...encapsuler sans fuite mémoire?

Il faut peut être aussi de la puissance brute pour 'descrambler'
0  0 
Avatar de impopia
Membre régulier https://www.developpez.com
Le 28/11/2024 à 13:43
L'enjeu de ces affirmations est substantiel. J'espère qu'il ne va rien lui arriver à cause de ces propos.
0  0 
Avatar de pierre.E
Membre confirmé https://www.developpez.com
Le 17/11/2024 à 15:38
c'est l'évolution l etre humain sera remplace par des ia comme especes dominantes car l ia est plus adaptée à la vie dans l espace que des êtres biologiques et comme il faut conquérir l espace pour espérer survivre.......................
0  1 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 12/11/2024 à 17:49
Imaginons que l'IA soit un jour capable de programmer des virus en assembleur,pour plusieurs architectures
0  2 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 12/11/2024 à 18:00
Les systèmes FPGA pourraient nous aider a être plus rapide que L'IA

Des systèmes de securite sur base FPGA...voir ASIC

On peut faire l'analogie avec le trading haute fréquence
0  2