La question de savoir si les droits de l’Homme doivent être étendus à l’intelligence artificielle divise. En effet, une tranche des observateurs est d’avis que la condition minimale d’applicabilité des droits de l’Homme à un sujet est que ce dernier soit un humain. C’est sur ce critère que s’est appuyée une juridiction US au cours de l’année dernière pour trancher que « seules les personnes physiques peuvent être reconnues comme inventeurs et non les intelligences artificielles. »
Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’intelligence artificielle générale pourrait nous tomber dessus dans 5 à 10 ans. Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Une telle IA transplantée dans un gorille serait alors capable d’échanger, de communiquer avec des humains, de créer des dispositifs et de demander à être reconnue comme inventeur. La question de savoir si les droits de l’Homme doivent être étendus à l’intelligence artificielle reviendrait alors sur la table avec acuité.
En général, l’idée selon laquelle l’intelligence artificielle ne mérite pas qu’on lui accorde des droits est la plus prédominante. Elle s’appuie sur le fait que les IA ne disposent pas de leur propre corps fait de matière organique et donc ne méritent pas la même considération morale. C’est un positionnement en contradiction avec certaines pratiques en vigueur dans l’actuelle société.
En effet, les personnes décédées disposent de droits qui régissent des aspects comme le traitement de leurs organes après leur mort ou la gestion de la propriété qui était la leur. Les futures générations d’humains n’ont pas encore de corps physique, mais la société actuelle prend des décisions en prenant en compte leurs droits une fois qu’elles sont dans un corps physique. Dans les deux cas, la société octroie des droits à des sujets qui ne sont pas vivants dans le présent.
C’est un intense débat autour de la notion de conscience autour de laquelle les définitions divergent. En 2015, des chercheurs de Rensselaer Polytechnic Institute de New York ont effectué un test sur 3 robots NAO programmables. Chacun des robots avait la capacité de parler, mais lors du test, deux des robots ont été reprogrammés de sorte à garder le silence, alors que le 3e pouvait toujours parler. Les chercheurs ont également fait savoir aux robots que deux d’entre eux – sans préciser lesquels - avaient reçu une « pilule de mutisme » qui les empêchait de parler. Ainsi, aucun des robots ne savait lesquels d’entre eux ne pouvaient pas parler et quel était celui qui pouvait le faire.
Les chercheurs ont ensuite demandé aux robots de déterminer lesquels d’entre eux avaient reçu la pilule de mutisme. N’ayant aucune idée, les robots ont tous les trois essayé de répondre « je ne sais pas », mais les deux qui étaient reprogrammés pour rester muets sont restés dans le silence. Le troisième s’est alors levé avant de répondre qu’il ne sait pas.
Dès qu’il a entendu et reconnu sa voix, ce dernier s’est alors rendu compte qu’il n’était pas possible qu’il ait reçu la pilule étant donné qu’il venait de parler. Il s’est alors repris avant de dire qu’il savait maintenant. « Désolé, je sais maintenant », a dit le robot avant d’ajouter que « j’ai été en mesure de prouver qu’on ne m'a pas donné de pilule de mutisme ». L’on était arrivé à la conclusion que les robots avaient montré des signes de conscience de soi, mais l’utilisation du terme conscience avait généré un débat contradictoire.
Et vous ?
Doit-on penser à étendre les droits de l’Homme à l’intelligence artificielle ?
Voir aussi :
Bill Gates pense que le gouvernement devrait réglementer les grandes entreprises de technologies plutôt que de les démanteler, car cela n'arrêtera pas les comportements anticoncurrentiels
Le PDG d'Apple reconnaît que le fait de ne pas avoir de réglementation autour de la technologie a entraîné des dommages importants pour la société
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer, à cause notamment des positions russes et américaines