L’ intelligence artificielle est un élément clé dans l’informatique des temps modernes qui a gagné tous les secteurs d’activité dans le monde, et des efforts pour une mise en œuvre qui serait capable de suivre des normes éthiques sont devenus une nécessité. Une récente recherche décrit une intervention éthique qui permet à l’IA d’empêcher le meurtre par un verrouillage éthique des armes. L’idée étant de mettre un terme aux fusillades de masse et autres utilisations éthiquement incorrectes des armes à feu grâce au développement d'une IA capable de reconnaître l'intention, de juger s'il s'agit d'une utilisation éthique, et finalement de rendre une arme à feu inerte si un utilisateur tente de la préparer pour un tir inapproprié.
La recherche menée par trois informaticiens de l'Institut polytechnique de Rensselaer à New York ne décrit pas la création d'une arme à feu intelligente en soi, mais l'efficacité potentielle d'un système d'intelligence artificielle qui peut prendre le même genre de décisions pour les utilisateurs d'armes à feu que, par exemple, les voitures qui peuvent bloquer les conducteurs s'ils ne peuvent pas passer un alcootest.
La recherche publiée dans l’archive de prépublications ArXiv semble avoir un objectif noble, les chercheurs eux-mêmes le qualifiant d'idée du "ciel bleu", mais la technologie pour le rendre possible est déjà là, selon eux. On peut lire dans le document de recherche de l'équipe :
« Comme on pouvait s'y attendre, certains objecteront ce qui suit : "Le concept que vous présentez est attrayant. Mais malheureusement, ce n'est rien d'autre qu'un rêve ; en fait, rien d'autre qu'une chimère. Cette IA est-elle vraiment réalisable, du point de vue de la science et de l'ingénierie ?" Nous répondons par l'affirmative, en toute confiance. »
En effet, la recherche explique également comment les récentes percées impliquant des études à long terme ont conduit au développement de divers systèmes de raisonnement basés sur l'IA qui pourraient servir à banaliser et à mettre en œuvre un système de jugement éthique assez simple pour les armes à feu.
Selon les chercheurs, leur IA serait formée à reconnaître l'intention humaine derrière une action. Ils décrivent la récente fusillade de masse dans un Walmart à El Paso et offrent un point de vue différent sur ce qui aurait pu se passer :
« Le tireur se dirige vers Walmart, un fusil d'assaut et une quantité massive de munitions, dans son véhicule. L'IA que nous envisageons sait que cette arme est là, et qu'elle ne peut être utilisée qu'à des fins très spécifiques, dans des environnements très spécifiques (et bien sûr elle sait quels sont ces fins et ces environnements).
Chez Walmart même, dans le parking, toute tentative de la part de l'agresseur potentiel d'utiliser son arme, ou même de la positionner pour une utilisation quelconque, aura pour conséquence de la verrouiller par l'IA. Dans le cas particulier qui nous occupe, l'IA sait que tuer quelqu'un avec une arme, sauf peut-être à des fins d'autodéfense, est contraire à l'éthique. Puisque l'IA exclut la légitime défense, l'arme est rendue inutile et verrouillée ».
Cela donne une image magnifique, mais tout le monde ne sera certainement pas d’accord avec le concept de "verrouillage éthique" par l’intelligence artificielle des scientifiques. La responsabilité des créateurs de l’IA est engagée à une époque où les systèmes automatisés sont impliqués dans toutes les facettes de l'existence humaine.
Les quelques rubriques sur lesquelles les entreprises de l’IA comme Microsoft, IBM et DeepMind de Google basent leurs principes éthiques pour le développement de l’IA consistent dans les points suivants : l'intelligence artificielle doit utiliser l’équité dans le traitement de toutes les personnes, donner à chacun les moyens d'agir, être fiable et sûre, être compréhensible, sécurisée et respectueuse de la vie privée, et avoir une responsabilité algorithmique. Elle doit être conforme aux valeurs humaines existantes, être explicable, être équitable et respecter les droits des utilisateurs en matière de données.
Selon Tom Chatfield, auteur et philosophe technologique britannique, dans un article publié l’année dernière, les technologues seraient convaincus que les codes d'IA sont des recettes pour automatiser l'éthique elle-même, et qu'une fois que la majorité serait d’accord avec ces codes, « le problème de la détermination d'une direction future éthiquement positive pour le code informatique aura commencé à être résolu ».
Cependant selon Chatfield, alors même que le monde prend conscience de l'importance de ce domaine, une tendance troublante est évidente lorsqu'il est question de la manière dont les codes d'éthique de l'IA sont discutés. Pour la simple raison du manque de consensus sur ce qui est éthique, l’auteur dit que nous ne pouvons pas le programmer. « Il n'existe pas d'ensemble unique de principes éthiques qui puisse être justifié rationnellement d'une manière que tout être rationnel acceptera », a-t-il écrit à l’époque.
Il ne s’agit pas du développement d'une arme à feu intelligente, mais la création d'une IA éthiquement correcte
Les chercheurs ont prévu certainement une myriade d'objections à leur concept d’IA éthiquement correcte, alors qu’ils se concentrent sur la navigation dans le paysage politique américain. Dans la plupart des pays civilisés, le contrôle des armes à feu est une question de bon sens. L'équipe prévoit que des personnes feront remarquer que les criminels utiliseront simplement des armes à feu qui n'ont pas de système de surveillance à l’IA intégré :
« En réponse, nous notons que notre conception du "ciel bleu" ne se limite pas à l'idée que l'IA de surveillance ne se trouve que dans les armes en question », ont dit les informaticiens dans leur document de recherche.
Selon les chercheurs, leur contribution ici n'est pas le développement d'une arme à feu intelligente, mais la création d'une IA éthiquement correcte. Si les criminels continuent à utiliser des armes sans leur système, l'IA peut toujours être efficace lorsqu'elle est installée dans d'autres capteurs, d’après les chercheurs. Elle pourrait, hypothétiquement, être utilisée pour remplir un certain nombre de fonctions une fois qu'elle aura déterminé l'intention humaine violente.
Elle pourrait verrouiller les portes, arrêter les ascenseurs, alerter les autorités, modifier les feux de circulation, envoyer des alertes par SMS en fonction de la localisation, et toute une série d'autres mesures réactionnaires, y compris le déverrouillage des armes des forces de l'ordre et du personnel de sécurité pour la défense.
Les chercheurs pensent également qu'il y aura des objections basées sur l'idée que des personnes pourraient pirater les armes. Celle-ci est assez facilement écartée : les armes à feu seront plus faciles à sécuriser que les robots, et nous y intégrons déjà l'IA, disent-ils. Bien qu'il n'y ait pas de sécurité totale, l'armée américaine remplit ses navires, ses avions et ses missiles d'IA et nous avons réussi à trouver comment empêcher l'ennemi de les pirater. Nous devrions être en mesure de garder les armes de service des policiers tout aussi sûres.
De manière réaliste, il faut un acte de foi pour supposer qu'une IA éthique peut être mise en place pour comprendre la différence entre des situations telles que, par exemple, l'invasion de domicile et la violence domestique, mais le travail de base est déjà là, selon les chercheurs. Si vous regardez les voitures sans conducteur, nous savons que des gens sont déjà morts parce qu'ils comptaient sur une IA pour les protéger. Mais nous savons aussi que le potentiel de sauver des dizaines de milliers de vies est trop important pour l'ignorer face à un nombre, jusqu'à présent relativement faible, de décès accidentels, lit-on.
Il est probable que, tout comme l'IA de Tesla, une IA de contrôle des armes pourrait entraîner des morts accidentelles et inutiles. Mais environ 24 000 personnes meurent chaque année aux États-Unis à la suite d'un suicide par arme à feu, 1 500 enfants sont tués par la violence armée et près de 14 000 adultes sont assassinés avec des armes à feu, selon UC Davis Health. Il va sans dire qu'une intervention d'un système d’IA pourrait faire baisser ces chiffres de manière significative.
Il se peut que l’utilisation de cette IA dans d'autres capteurs pour d’autres fonctions citées par les chercheurs pourrait devenir l’utilisation la plus courante en lieu et place de son utilisation pour surveiller une arme à feu. Pourquoi quelqu'un dans la communauté des armes à feu achèterait-il une arme avec une telle IA ? « Et il est évident que l'armée et la police n'auront pas à être paralysées par de tels dispositifs », a écrit un commentateur. Et vous, qu’en pensez-vous ?
Source : ArXiv
Et vous ?
Que pensez-vous de l’idée de "l’IA éthiquement correcte" des chercheurs ?
Pensez-vous que les gens utiliseront ce système sur leur arme à feu ?
La police peut-elle être amenée à utiliser une telle IA alors qu’en face elle ne sera certainement pas adoptée ?
Voir aussi :
Les experts de l'Union européenne publient le premier draft sur les lignes directrices d'une IA éthique, la version finale est attendue en mars 2019
Un nombre croissant d'entreprises reconnaissent la nécessité d'une intelligence artificielle éthique et de confiance, mais les progrès en la matière restent inégaux, selon Capgemini
L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code, mais ces défis seraient beaucoup plus complexes, selon un auteur
Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis, dns le domaine militaire
Une "IA éthiquement correcte" pourrait-elle mettre fin à la violence des armes à feu ?
Elle pourrait reconnaître l'intention et bloquer les tireurs de masse
Une "IA éthiquement correcte" pourrait-elle mettre fin à la violence des armes à feu ?
Elle pourrait reconnaître l'intention et bloquer les tireurs de masse
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !