IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le pape demande aux dirigeants du G7 d'interdire l'utilisation d'armes autonomes
Car « les machines ne devraient jamais décider de la vie ou de la mort d'un être humain »

Le , par Patrick Ruiz

1PARTAGES

16  0 
Le pape François a prononcé un discours historique devant les dirigeants du G7, les exhortant à reconnaître qu'ils ont le pouvoir de décider si l'intelligence artificielle devient un outil terrifiant ou créatif, et leur demandant d'interdire l'utilisation d'armes autonomes dans les guerres. Sa sortie s’inscrit dans la suite du Rome Call for AI Ethics et de l’appel à un traité mondial contraignant pour réglementer l’intelligence artificielle.

« Nous condamnerions l'humanité à un avenir sans espoir si nous retirions aux gens la capacité de prendre des décisions sur eux-mêmes et sur leur vie », a déclaré le Pape François lors du dernier sommet du G7 en Italie.

« À la lumière de la tragédie que constituent les conflits armés, il est urgent de reconsidérer le développement et l'utilisation de dispositifs tels que les armes autonomes létales et, à terme, d'en interdire l'usage.

Cela commence par un engagement effectif et concret à introduire un contrôle humain toujours plus important et adéquat. Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain.

Une telle mesure représenterait un affaiblissement du sens de l'humanité et du concept de dignité humaine », a-t-il ajouté.

[

Le Vatican est l’initiateur du Rome Call for AI Ethics

Le Vatican a annoncé que Cisco a rejoint le Rome Call for an AI Ethics au cours du mois d’avril dernier. C’est une initiative du Vatican destinée à appeler à la mise sur pied de normes éthiques plus strictes en matière de développement d’intelligence artificielle. Cisco rejoignait ainsi IBM et Microsoft qui sont les premières entreprises à s’arrimer à l’initiative à côté du gouvernement italien et de l’Organisation des Nations Unies pour l’alimentation et l’agriculture.

« Nous sommes très heureux que Cisco ait rejoint l'Appel de Rome car c'est une entreprise qui joue un rôle crucial en tant que partenaire technologique pour l'adoption et la mise en œuvre de l'intelligence artificielle (IA) en offrant une expertise en matière d'infrastructure, de sécurité et de protection des données et des systèmes d'IA. À partir de maintenant, nous allons examiner comment ce partenariat peut encore se développer pour combiner l'engagement déjà présent de l'entreprise avec les principes éthiques de l'Appel de Rome », déclarait alors l'archevêque Vincenzo Paglia, président de l'Académie pontificale pour la vie et de la Fondation RenAIssance.


Le Rome Call For an AI Ethics énonce 6 grands principes : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée. Grosso modo, ces derniers stipulent que la technologie (l’intelligence artificielle) doit être mise sur pied dans le but de protéger les personnes ; en particulier, les faibles et les défavorisés.

Le Vatican veut s'assurer que les entreprises n'utilisent pas l'intelligence artificielle comme un moyen de collecter des données sans le consentement des individus, puis de les utiliser à des fins commerciales ou politiques.

« Sur le plan personnel, l'ère numérique modifie notre perception de l'espace, du temps et du corps, et sur le plan socio-économique, les utilisateurs sont souvent réduits à des "consommateurs", en proie à des intérêts privés concentrés dans les mains de quelques-uns. Les algorithmes extraient désormais des données qui permettent de contrôler les habitudes mentales et relationnelles à des fins commerciales ou politiques, ce, souvent à notre insu. L'asymétrie par laquelle un petit nombre d'élus savent tout de nous alors que nous ne savons rien d'eux ternit la pensée critique et l'exercice conscient de la liberté », a déclaré le Pape François absent à l’atelier, mais représenté. Ce dernier n’a pas manqué de déplorer les inégalités qui se creusent énormément avec le savoir et la richesse qui s'accumulent entre quelques mains avec de graves risques pour les sociétés démocratiques. Les cas pour illustrer les propos du Pape sont légion avec de nombreuses agences gouvernementales et entreprises privées qui usent de logiciels de la société Clearview AI pour extirper des données de reconnaissance faciale à l’insu de tiers. La base de données de cette société, qui contient plus de 3 milliards d'images extraites de divers sites en ligne, est utilisée par les forces de l'ordre pour mettre la main sur des individus dignes d'intérêt.

Le Rome Call For an AI Ethics stipule en sus qu’un devoir d’explication doit faire l’objet d’instauration et que les algorithmes basés sur l'intelligence artificielle doivent fournir aux individus des informations sur la manière dont ces derniers ont abouti à leurs décisions afin de garantir qu'il n'y a pas de biais.

Toutefois, le document ne va pas plus loin que la définition de ce qui reste de grands axes de réflexion tant les principes énoncés peuvent prêter à débat. En effet, sur la base de ces derniers l’on peut déboucher sur un ensemble de points susceptibles de faire l’objet d’examen par des gouvernements :

  • L'application de la reconnaissance faciale par les forces de l'ordre devrait-elle faire l'objet d'une surveillance et de contrôles humains, y compris des restrictions sur l'utilisation de la technologie de reconnaissance faciale sans preuve de culpabilité ou d'innocence ?
  • De même, devrions-nous veiller à ce qu'il y ait une surveillance et une responsabilisation civiles pour l'utilisation de la reconnaissance faciale dans le cadre des pratiques gouvernementales en matière de technologie de sécurité nationale ?
  • Quels types de mesures juridiques peuvent empêcher l'utilisation de la reconnaissance faciale pour le profilage racial et d'autres violations des droits tout en permettant les utilisations bénéfiques de la technologie ?
  • L'utilisation de la reconnaissance faciale par les autorités publiques ou d'autres personnes devrait-elle être soumise à des niveaux de performance minimum en matière de précision ?
  • La loi devrait-elle exiger que les détaillants affichent un avis visible de leur utilisation de la technologie de reconnaissance faciale dans les espaces publics ?
  • La loi devrait-elle exiger que les entreprises obtiennent un consentement préalable avant de recueillir des images d'individus pour la reconnaissance faciale ? Si oui, dans quelles situations et quels lieux cela devrait-il s'appliquer ? Et quelle est la manière appropriée de demander et d'obtenir un tel consentement ?
  • Devrions-nous nous assurer que les personnes ont le droit de savoir quelles photos ont été recueillies et stockées avec leurs noms et visages ?
  • Devrions-nous créer des processus qui accordent des droits légaux aux personnes qui croient avoir été mal identifiées par un système de reconnaissance faciale ?



Bon nombre de pays se servent bel et bien d’armes autonomes sur les champs de bataille pour aller à la recherche de cibles et les abattre

Une vidéo du collecteur de fonds ukrainien Serhii Sternenko, publiée le 20 mars, présente un drone d'attaque doté d'un système de reconnaissance automatique de la cible qui vise un char d'assaut russe à longue distance. Même après la perte de la liaison vidéo, le drone réussit son attaque.

Des développeurs ukrainiens confirment que leurs drones effectuent désormais des frappes autonomes sur les forces russes, sans opérateur humain. C'est en principe la première fois que de tels drones sont utilisés, les allégations de l'ONU concernant des attaques autonomes en Libye en 2020 n'ayant pas été prouvées.

Les drones Saker Scout peuvent trouver, identifier et attaquer 64 types différents d'objets militaires russes de manière autonome, en opérant dans des zones où le brouillage radio bloque les communications et empêche les autres drones de fonctionner.

Le quadcoptère Saker Scout est entré en service le mois dernier et peut transporter trois kilos de bombes. Les petits drones télécommandés se sont révélés extrêmement efficaces en tant que bombardiers équipés de grenades antichars RKG-3 modifiées ou d'ogives RPG et peuvent détruire même des chars lourds.
Suite aux attaques menées par les militants du Hamas le 7 octobre dernier, les forces israéliennes ont frappé plus de 22 000 cibles à l'intérieur de Gaza. Depuis la fin de la trêve temporaire, le 1er décembre, l'armée de l'air israélienne a frappé plus de 3500 sites. Pour y parvenir, elle met à contribution une intelligence artificielle dénommée « Gospel » afin d'identifier en temps réel le plus grand nombre de cibles ennemies.


En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès". Elle se vante d'avoir réussi à "combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle".
La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

« Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'homme s'inquiètent de "la déshumanisation numérique des systèmes d'armes".

Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

L'année dernière, un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

Source : allocution du pape lors du sommet du G7 (vidéo)

Et vous ?

Que pensez-vous des divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 18/06/2024 à 3:50
Ca me fait rire le sous entendu "tuer c'est bien mais pas avec les machines"
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 19/06/2024 à 11:33
Est-ce que ce même pape a demandé à son personnel (curés, évêques et autres cardinaux) de ne pas mettre la main dans la culotte de leur enfants de coeur?

Savez-vous que l'église catholique des USA a été mise en faillite car étant dans l'impossibilité de payer le dédommagement des victimes de ses abus sexuels suite à une multitude de condamnations judiciaires à son encontre?
0  0 
Avatar de Core-ias
Candidat au Club https://www.developpez.com
Le 17/06/2024 à 9:52
C'est pareil que demander de ne pas monter en puissance.
0  1 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 17/06/2024 à 17:58
Si la chrétienté devait avoir un leader, ce dont je doute, ce leader devrait communiquer sur des questions spirituelles, et certainement pas politiques et encore moins informatique.
Tout cela est grotesque et une bouffonnerie. Rappelons que l'église catholique italienne est principalement financée par la Mafia, qui finance donc le train de vie princier du susdit pape, alors que pour bien faire il devrait aller méditer dans une grotte et prêcher dans la nature au lieu de se pavaner dans une papamobile ridicule.



0  1