IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Pape François appelle à un traité mondial contraignant pour réglementer l'IA
Mais les échecs des négociations sur les robots tueurs aux Nations unies jettent un doute sur cette possibilité

Le , par Patrick Ruiz

3PARTAGES

9  0 
Le pape François appelle à un traité international juridiquement contraignant pour réglementer l'intelligence artificielle. Motifs : les algorithmes ne doivent pas être autorisés à remplacer les valeurs humaines et l’humanité doit éviter de tomber dans une dictature technologique qui menace l’existence humaine. Le pape a lancé cet appel dans un message dans le cadre des préparatifs de la Journée mondiale de la paix qui se célèbre tous les 1ers janviers par l’Eglise catholique romaine. Le titre du message, qu’il est de tradition d’envoyer aux dirigeants mondiaux et aux responsables d'institutions telles que les Nations unies, est « L'intelligence artificielle et la paix. » Néanmoins, les échecs des négociations sur les robots tueurs aux Nations unies jettent un doute sur cette possibilité. Et pour cause : chaque pays voit l’intelligence artificielle comme un outil pour asseoir sa domination sur le monde.

Cette déclaration intervient dans un contexte mondial où les gouvernements du monde entier en sont encore à chercher des réponses aux façons d’équilibrer les avantages et les inconvénients de cette technologie dont on sait qu’elle peut déjà engager des conversations semblables à celles des humains, répondre à des questions et écrire des codes informatiques, etc.

« L'ampleur mondiale de l'intelligence artificielle montre clairement qu’en parallèle à la responsabilité des États souverains de réglementer son utilisation au niveau interne, les organisations internationales peuvent jouer un rôle décisif en concluant des accords multilatéraux et en coordonnant leur application et leur mise en œuvre », écrit le Pape François dans son message.

« J'invite la communauté mondiale des nations à travailler ensemble pour adopter un traité international contraignant qui réglemente le développement et l'utilisation de l'intelligence artificielle sous ses nombreuses formes », ajoute-t-il.



Le dernier message du Pape s’inscrit dans la continuité du Rome Call for an AI Ethics

Cette initiative du Vatican vise à appeler les intervenants mondiaux à la mise sur pied de normes éthiques plus strictes en matière de développement d’intelligence artificielle. IBM et Microsoft sont les premières entreprises à s’y arrimer, suivis du gouvernement italien et de l’Organisation des Nations Unies pour l’alimentation et l’agriculture.

Le Rome Call For an AI Ethics énonce 6 grands principes : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée. Grosso modo, ces derniers stipulent que la technologie (l’intelligence artificielle) doit être mise sur pied dans le but de protéger les personnes ; en particulier, les faibles et les défavorisés.

Le Vatican veut s'assurer que les entreprises n'utilisent pas l'intelligence artificielle comme un moyen de collecter des données sans le consentement des individus, puis de les utiliser à des fins commerciales ou politiques.

« Sur le plan personnel, l'ère numérique modifie notre perception de l'espace, du temps et du corps, et sur le plan socio-économique, les utilisateurs sont souvent réduits à des "consommateurs", en proie à des intérêts privés concentrés dans les mains de quelques-uns. Les algorithmes extraient désormais des données qui permettent de contrôler les habitudes mentales et relationnelles à des fins commerciales ou politiques, ce, souvent à notre insu. L'asymétrie par laquelle un petit nombre d'élus savent tout de nous alors que nous ne savons rien d'eux ternit la pensée critique et l'exercice conscient de la liberté », a déclaré le Pape François.

Le Rome Call For an AI Ethics stipule en sus qu’un devoir d’explication doit faire l’objet d’instauration et que les algorithmes basés sur l'intelligence artificielle doivent fournir aux individus des informations sur la manière dont ces derniers ont abouti à leurs décisions afin de garantir qu'il n'y a pas de biais.


Les échecs des négociations sur les robots tueurs aux Nations unies jettent un doute sur la perspective de l’atteinte d’un règlement mondial juridiquement contraignant sur l’intelligence artificielle

L’intelligence artificielle est vue comme la clé du futur pour dominer sur les nations et c’est peut-être là l’explication principale des échecs à répétition des négociations aux Nations unies sur les robots tueurs. La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes.

Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.


Cet autre échec des discussions à l’ONU faisait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

Source : Message of His Holiness Pope

Et vous ?

Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 15/12/2023 à 10:22
Citation Envoyé par Patrick Ruiz Voir le message
« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
La guerre est déjà déshumanisé, par exemple quand un soldat israélien ou un soldat étasunien pilote un drone et tue des gens à distance, ou quand l'armée US lance une bombe atomique sur des civils japonais.

De toute façon si des lois interdisaient les robots tueurs, ça ne stopperait pas le développement et l'utilisation des robots tueurs.
Parce qu'il y a une guerre mondiale qui arrive et les pays sont prêts à tout pour gagner.
En plus il y a la paranoïa "si ça se trouve l'ennemi possède des armes plus puissantes que les miennes", quand tu penses jouer ta survie, il n'y a plus aucune règle qui s'applique, de toute façon si tu gagnes la guerre tu ne seras pas jugé.

Je ne sais pas, peut-être qu'il est interdit de posséder des armes nucléaires et pourtant Israël possède peut-être 400 ogives nucléaires. (ce qui est bizarre puisque le pays qu'il n'aime pas c'est l'Iran, et l'Iran est trop proche pour l'attaquer avec des ogives nucléaires)
Si ça se trouve Israël prévoit d'attaquer des pays beaucoup plus loin que ça.
0  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 16/12/2023 à 23:03
Autrement dit, pepere craint pour son business. l'IA excele dans la manipulation de masse, tout comme les religions, mais sera plus simple a mettre en place
0  0