Partout dans le monde, d'importantes recherches sur l'intelligence artificielle (IA) sont menées. Des organisations et entreprises technologiques à l'instar de Google et Facebook ne cessent d'investir dans ce domaine. Il est probable que nous ayons bientôt une IA à peu près aussi sophistiquée sur le plan cognitif que les animaux. Aeon pense que le moment est venu de commencer à se demander si, et dans quelles conditions, ces IA pourraient mériter les protections éthiques que nous accordons habituellement aux animaux.
Aeon se décrit comme étant une publication qui « pose les plus grandes questions et trouve les réponses les plus fraîches et les plus originales, fournies par les plus grandes autorités mondiales sur la science, la philosophie et la société ». Jusqu'à présent, les discussions sur les "droits de l'intelligence artificielle" ou les "droits des robots" ont été dominées par la question des obligations éthiques que nous aurions envers une intelligence humaine ou supérieure. Cependant, selon Aeon, penser ainsi pourrait avoir de graves conséquences morales. « Avant de créer un IA semblable à l'être humain et méritant une considération éthique semblable à celle de l'être humain, nous allons très probablement créer un IA inférieure à l'être humain, méritant une considération éthique inférieure à celle de l'être humain », écrit le magazine.
Parlant de droit des animaux, les comités de soins évaluent les propositions de recherche pour s'assurer que les animaux vertébrés ne sont pas tués inutilement ou ne souffrent pas indûment. Si des cellules souches humaines ou, surtout, des cellules cérébrales humaines sont en cause, les normes de surveillance sont encore plus rigoureuses. La recherche biomédicale fait l'objet d'un examen minutieux, mais « la recherche sur l'IA, qui pourrait comporter certains des mêmes risques éthiques, ne fait actuellement l'objet d'aucun examen. Peut-être que ça devrait l'être », selon Aeon.
Si une IA devait mériter une protection éthique, c'est qu'elle est dotée d'une conscience, c'est-à-dire qu'elle ressente de l'émotion, une joie et une peine évidentes. Aeon partage ce point de vue et pose une autre question : « comment saurons-nous quand nous aurons créé quelque chose capable de ressentir la joie ou la souffrance ? ». « l'IA pourrait bien se plaindre et se défendre en initiant une discussion sur ses droits, comme on le voit dans les films de science-fiction. Mais si l'IA est inarticulée, comme une souris ou un chien, ou si, pour une autre raison, elle est incapable de nous communiquer sa vie intérieure, elle n'a peut-être aucun moyen de signaler qu'elle souffre », souligne Aeon.
En ce qui concerne la conscience, Aeon fait remarquer aussi que « l'étude scientifique de la conscience n'est pas parvenue à un consensus sur ce qu'est la conscience, et comment nous pouvons dire si elle est présente ou non. Selon certains points de vue, des points de vue "libéraux", pour que la conscience existe, il suffit d'un certain type de traitement de l'information bien organisé, tel qu'un modèle informationnel flexible du système par rapport aux objets dans son environnement, avec des capacités d'attention guidée et une planification d'action à long terme. Nous sommes peut-être déjà sur le point de créer de tels systèmes. Sur d'autres points de vue, des points de vue "conservateurs", la conscience peut nécessiter des caractéristiques biologiques très spécifiques, telles qu'un cerveau très semblable à celui d'un mammifère dans ses détails structurels de bas niveau : dans ce cas, nous sommes loin de créer une conscience artificielle ».
Dans son billet de blog, Aeon explique toutefois qu'on ne sait pas quel type de point de vue est correct ou si une autre explication l'emportera en fin de compte. Cependant, si une vision libérale est correcte, nous pourrions bientôt créer de nombreuses IA sous-humaines qui mériteront une protection éthique. « C'est là que réside le risque moral », précise Aeon. Partant de là, le magazine propose « la création de comités de surveillance qui évaluent la recherche de pointe sur l'IA en tenant compte de ces questions. Ces comités, tout comme les comités de protection des animaux et les comités de surveillance des cellules souches, devraient être composés d'un mélange de scientifiques et de non-scientifiques - concepteurs d'IA, spécialistes de la sensibilisation, éthiciens et membres intéressés de la communauté. Ces comités seront chargés d'identifier et d'évaluer les risques éthiques des nouvelles formes de conception de l'IA, avec une compréhension sophistiquée des questions scientifiques et éthiques, en pesant les risques par rapport aux avantages de la recherche ».
Source : Aeon
Et vous ?
Quel est votre avis sur le sujet ?
Les arguments d'Aeon sont-ils fondés ?
Selon vous, l'IA devrait-elle bénéficier des mêmes protections éthiques que les animaux ? Pourquoi ?
Voir aussi
« L'intelligence artificielle n'existe pas et la voiture autonome n'existera jamais », selon un expert en IA
L'IA de niveau humain pourrait être réalisée « d'ici 5 à 10 ans », selon les experts, et les plus grandes menaces sont les applications militaires
Des experts prédisent que l'IA va dominer les humains dans moins de 50 ans, selon une étude menée par les deux universités Harvard et Yale
Des chercheurs mettent au point une IA apte à détecter les signes de maladies dans le souffle humain en utilisant des techniques de deep learning
L'intelligence artificielle devrait-elle bénéficier des mêmes protections éthiques que les animaux ? Oui, selon Aeon,
Qui propose la création de comités de surveillance chargés d'évaluer les risques
L'intelligence artificielle devrait-elle bénéficier des mêmes protections éthiques que les animaux ? Oui, selon Aeon,
Qui propose la création de comités de surveillance chargés d'évaluer les risques
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !