C'est d'ailleurs dans cette oeuvre qu'il énonce ses fameuses lois sur la robotique qui sont :
- la première loi est énoncée comme suit : « un robot ne pourra pas nuire à un être humain ou, par son inaction, laisser un humain être blessé » ;
- la seconde : « un robot doit obéir aux ordres dictés par le personnel qualifié, à moins que ces ordres ne soient en contradiction avec la première loi », autrement un robot pourrait par exemple être autorisé à tuer un être humain ;
- et enfin la troisième : « un robot doit protéger sa propre existence, à moins que cela ne porte atteinte à la première ou à la seconde loi », après tout il est constitué de pièces d'équipements onéreuses. Isaac Asimov a précisé « qu'un robot doit aller joyeusement à l'autodestruction si c'est pour suivre un ordre [seconde loi] ou si c'est pour sauver une vie humaine [première loi] »
Pour situer le contexte, en 2035, les robots sont pleinement intégrés dans la vie quotidienne. Quelques jours avant la commercialisation d'un nouveau robot par USR (US Robots pour Asimov et USRobotics dans le film), un de ses fondateurs, le roboticien Alfred Lanning, se suicide. L'officier de police Del Spooner, qui se méfie des robots depuis que l'un d'entre eux a laissé mourir une jeune fille pour le sauver, lui, ne croit pas au suicide. Il tient donc à découvrir le meurtrier.
Si les œuvres de science-fiction ont inspiré (ou ont été inspiré) des progrès technologiques, il est légitime de se demander la pertinence des lois évoquées par Asimov durant cette course au développement de l'intelligence artificielle à toutes les sauces.
Une première loi déjà obsolète ?
De prime abord, rappelons que plus d'une dizaine de pays (parmi lesquels les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne) développent actuellement des systèmes d'armes autonomes, selon un rapport de Human Rights Watch. La perspective du développement d'un usage militaire de l'IA a indigné de nombreuses personnes et conduit à des manifestations de militants de 35 pays pour demander leur interdiction. Noel Sharkey, l'une des figures de proue de la campagne pour arrêter les robots tueurs était présent à Berlin pour participer à la réunion internationale de la Campagne pour arrêter les robots tueurs en mars 2019. Noel Sharkey est un professeur émérite de l'université de Sheffield, aussi un spécialiste reconnu de la robotique et de l'intelligence artificielle. « Je peux vous construire un robot tueur en seulement deux semaines », a-t-il dit lors du rassemblement avec un regard avertisseur.
Sharkey s'oppose à l'idée de parler de « systèmes d'armes autonomes mortels » comme s'il s'agissait d'un roman de science-fiction, d’après Deutsche Welle. Le militant des droits de l’homme dit que, les systèmes d'armes entièrement autonomes sont une réalité bien établie. Pour lui, il n'est pas nécessaire de discuter de leur définition qui est déjà assez connue comme étant des armes qui cherchent, sélectionnent et attaquent des cibles par leurs propres moyens. C'est, par ailleurs, la définition que le Comité international de la Croix-Rouge (CICR) leur donne.
En effet, les soldats n'ont plus besoin d’appuyer sur la détente avec de telles armes. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles. Ces armes peuvent prendre la forme de missiles, de véhicules terrestres sans pilote, de sous-marins ou d'essaims de mini-drones.
Les premières discussions formelles visant à limiter ou interdire l’utilisation des systèmes d’armes létales autonomes (SALA) ou des robots de guerre, pour faire simple, se sont tenues au cours des derniers mois de l’année 2017 à Genève sous l’égide de L’ONU. Ces discussions axées autour de la convention sur certaines armes classiques (CCAC) devraient permettre de soumettre ces dispositifs de guerre au droit international en identifiant les « SALA illicites » en fonction du niveau de contrôle attribué à l’homme.
À ce sujet, la France a proposé d’approfondir la distinction entre les systèmes dotés « d’automatismes » de complexité variable et les systèmes « autonomes » qui ne font appel à aucune mesure de supervision humaine. Le gouvernement russe est resté fermement opposé à toute interdiction visant à limiter ou interdire le développement des SALA ou des technologies liées à l’IA à des fins militaires qui serait prise au niveau de l’ONU.
Une seconde loi elle aussi obsolète
Dès lors qu'un « personnel non qualifié » peut ordonner à un robot de tuer une cible, cela va à l'encontre de la seconde loi (bien sûr, même si le « personnel qualifié » peut ordonner de tuer une cible, cela va également à l'encontre de la seconde loi).
Dans une lettre ouverte cosignée par 116 spécialistes de l'IA et de la robotique, Elon Musk a appelé les Nations Unies à tout simplement interdire les robots tueurs. « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer », avertissent-ils.
Ils ont demandé ce qui se passerait si les robots tueurs étaient piratés ou détournés. À l’argument de la faillibilité des IA, les défenseurs de la cause des robots tueurs répondent que l’apprentissage automatique est encore à ses débuts et qu’il suffirait de le laisser progresser afin de rendre les IA moins vulnérables. Toutefois, il serait objectif de se demander quelle intelligence artificielle, quel système informatique connecté ne peut pas être piraté ou détourné ? Supposons qu’un drone autonome se fasse pirater par un terroriste, combien de personnes pourraient perdre la vie à cause de cette même technologie conçue pour empêcher au maximum les dommages collatéraux ?
Pour le cas du personnel autorisé à demander la mort d'une cible, Remotec Andros Mark V-A1 est le nom du robot utilisé par la police de Dallas pour abattre un tueur présumé des policiers. En juillet 2016, lors des manifestations qui ont eu lieu à Dallas, suite à la mort d’un homme noir tué par un policier blanc sans raison apparente, un réserviste de l’armée américaine du nom de Micah Xavier Johnson aurait ouvert le feu contre des policiers tuant cinq d’entre eux, d’après les autorités locales. Pour l’appréhender, les hommes en uniforme ont utilisé un dispositif assez connu aux États-Unis pour avoir été utilisé à d’autres fins, notamment pour désamorcer des bombes. Cependant, c’était la première fois que Remotec Andros Mark V-A1 était utilisé par la police dans une tactique visant à éliminer une cible.
D’après les autorités locales, le robot a servi à transporter une charge explosive jusqu’à l’endroit où était localisée la cible avant que celle-ci ne soit actionnée tuant ainsi le présumé tireur. C’est lors de la conférence de presse donnée plus tard par le chef de la police de Dallas, David Brown, que ce dernier a précisé que c’était bel et bien un Remotec Andros Mark V-A1 qui a été utilisé pour mener l’assaut. Il a également ajouté que le robot en question a été acquis en 2008 pour un montant d’environ 151 000 dollars.
Remotec Andros Mark V-A1 est un modèle fabriqué par Northrop Grumman et qui est guidé par un humain grâce à une télécommande. L’engin pèse environ 358 kg pour une vitesse maximale qui avoisine les 6 km/h. Il est doté d’une caméra avec un zoom optique de 26 et un zoom numérique de 12. Remotec Andros Mark V-A1 est capable de soulever jusqu’à 27 kg lorsque son bras est complètement étendu et son « poignet » peut appliquer une force de plus de 22 kg.
Conclusion
Certains pourraient trouver que les lois d'Isaac Asimov étaient pleines de bon sens, d'autres qu'elles édulcoraient un peu la nature humaine, lui occultant son côté guerrier / conquérant / (l'adjectif qui pourra entraîner une violence voulue envers autrui). L'opinion que chacun peut se faire de ces lois est tributaire de nombreux facteurs mais reste sans doute très subjective.
Et vous ?
Que pensez-vous des lois de la robotique d'Isaac Asimov ? Des principes dépassés, une formulation poétique ou un idéal à atteindre ?
Pensez-vous qu'elles pourraient s'appliquer à des IA vraiment intelligentes ?
Quelle(s) loi(s) vous semble(nt) la/les plus importante(s) ? Pourquoi ?
Quelle loi pourriez-vous suggérer ?
Les lois peuvent-elles être appliquées de façon universelle aux robots ou doivent-elles être spécifiques aux types de tâches qu'il peut accomplir ? ?
Voir aussi :
Des chercheurs en intelligence artificielle gagnent parfois plus d'un million de dollars chaque année, même dans des organisations à but non lucratif
L'intelligence artificielle, la nouvelle arme de la gendarmerie contre les Gilets jaunes
Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
Gartner : la montée en puissance de l'IA créera 2,9 mille milliards USD de valeur commerciale en 2021 en valorisant l'intelligence augmentée
Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine