C’est l’une des phrases fortes d’une interview que le président de Microsoft a accordée au cours du quatrième trimestre de l’année précédente. Son appel intervient dans un contexte de profonds questionnements sur la notion d’éthique en lien avec le développement des systèmes d’intelligence artificielle. De façon ramassée, Brad Smith est d’avis « qu’en tant que première génération d’humains à doter les ordinateurs de la capacité de prendre des décisions, nous devons décider comment nous voulons que les machines les prennent et cela passe par la consultation d’un code éthique. »
Le cas des voitures autonomes illustre bien la difficulté à laquelle les programmeurs lancés dans la filière font face surtout pour ce qui est des aspects moraux : la voiture autonome devrait-elle épargner en priorité les humains plutôt que les animaux de compagnie, les passagers au lieu des piétons, les femmes au lieu des hommes, les jeunes plutôt que les vieux, les personnes ayant un haut statut social au lieu de celles ayant un statut inférieur, les personnes respectant la loi plutôt que les criminels, les personnes mal portantes au lieu de celles en bonne santé ? La voiture devrait-elle dévier (agir) ou ne rien faire ou encore chercher à épargner le plus de vies possible ?
C’est la raison pour laquelle Brad Smith développe l’idée d’équivalent de serment d’Hippocrate pour les ingénieurs informaticiens et conçoit six principes éthiques qui seraient appliqués par les ingénieurs de Microsoft. Faisant suite aux travaux de Brad Smith parus dans le livre Tools and Weapons : The promise and peril of the digital age, Eron Etzioni – professeur à l’université de Washington – propose une version modifiée du serment d’Hippocrate pour les médecins :
- Je jure d'honorer, au mieux de mes capacités et de mon jugement, cet engagement :
- je respecterai les acquis scientifiques durement gagnés par les scientifiques et les ingénieurs sur les traces desquels je marche, et je partagerai volontiers les connaissances qui sont les miennes avec ceux qui doivent me suivre ;
- j'appliquerai, pour le bien de l'humanité, toutes les mesures nécessaires, en évitant ces deux pièges que sont l'optimisme excessif et le pessimisme uniforme ;
- je n'oublierai pas que l'intelligence artificielle est un art, au même titre que la science, et que les préoccupations humaines l'emportent sur les préoccupations technologiques ;
- je dois tout particulièrement faire preuve de prudence en matière de vie et de mort. Merci s'il m'est donné de sauver une vie grâce à l'intelligence artificielle. Mais elle peut aussi être en mesure de prendre une vie. Cette énorme responsabilité doit être assumée avec une grande humilité et en étant conscient de ma propre fragilité et des limites de l'intelligence artificielle. Par-dessus tout, je ne dois pas jouer avec Dieu ni laisser ma technologie le faire ;
- je respecterai la vie privée des humains, car leurs données personnelles ne sont pas divulguées aux systèmes d'intelligence artificielle afin que le monde puisse en avoir connaissance ;
- je tiendrai compte de l'impact de mon travail sur l'équité, à la fois en perpétuant les biais historiques, qui sont causés par l'extrapolation aveugle des données passées aux prévisions futures, et en créant de nouvelles conditions qui augmentent les inégalités économiques ou autres ;
- mon intelligence artificielle permettra de prévenir les préjudices chaque fois que cela sera possible, car il est préférable de prévenir que de guérir ;
- mon IA cherchera à collaborer avec les gens pour le plus grand bien, plutôt que d'usurper le rôle de l'homme et de le supplanter ;
- je me souviendrai que je ne rencontre pas de données sèches, de simples zéros et des uns, mais des êtres humains, dont les interactions avec mon logiciel d'IA peuvent affecter la liberté, la famille ou la stabilité économique de la personne. Ma responsabilité inclut ces problèmes connexes ;
- je me souviendrai que je reste un membre de la société, avec des obligations particulières envers tous mes semblables.
Le serment est certes axé sur l’intelligence artificielle, mais une grande partie de celui-ci s’applique de façon plus large à tous les logiciels et matériels informatiques.
Les futurs médecins prêtent ce serment avant d’entamer leur carrière. C’est l’une des différences fondamentales avec l’univers de l’informatique. En effet, il faut le rappeler, les contributions de Brad Smith et Eron Etzioni ne sont pas des cas de figure isolés. Il n’y a qu’à lire dans les contenus proposés par des initiatives comme Data4Democracy ou l’Association for Computing Machinery (ACM) pour se rendre compte que le domaine de l’informatique dispose bien de codes éthiques. Seulement, les professionnels de cette filière ne prêtent pas serment.
Même dans le cas où les travailleurs de la filière informatique venaient à prêter serment, un parallèle important à faire avec le domaine de la médecine est qu’il s’agit en général de textes sans valeur juridique. De plus, l’une des plus grosses questions est celle de savoir si le plus grand vecteur de risque en matière d’éthique en intelligence artificielle est le développeur ou la chaîne entière du processus de génie logiciel. En effet, les tâches sont dans bien des cas confiées aux ingénieurs informaticiens après que la prise de la plupart des décisions éthiques par les chefs de produits, les concepteurs et les acteurs commerciaux. Sur le terrain, les ingénieurs informaticiens rendent des comptes à leurs employeurs en premier. Ainsi, rappeler à un ingénieur du génie logiciel de se souvenir de ne pas « faire ce qui est mal » le met dans la position délicate d’être remplacé par quelqu’un qui fera ce que l’employeur demande.
À cela s’ajoute la subjectivité de certains points au sein de ces textes sur laquelle il faut commencer par jeter un regard. Même Robert Cecil Martin – auteur du célèbre « Coder proprement » – a touché à cet aspect il y a 6 ans lorsqu’il relevait que la définition de « causer du tort » dépend du propre code moral du programmeur concerné. En sus, il y a les enjeux financiers que l’on ne saurait écarter de l’équation. En effet, même si le code éthique de l’ACM suggère aux programmeurs d’être respectueux de la vie privée des utilisateurs, cela n’empêche pas des entreprises comme Facebook de se retrouver empêtrées dans des scandales comme celui de Cambridge Analytica.
Sources : Jasper Kuria, Oren Etzioni
Et vous ?
Partagez-vous l'idée selon laquelle les ingénieurs informaticiens disposent de très peu de décisions dans le processus décisionnel qui mène à la mise sur pied des produits des entreprises pour lesquelles ils travaillent ?
Qui du travailleur, de l'entreprise ou du code est le véritable problème en matière d'éthique ?
Quel commentaire faites-vous de la pertinence de l’idée d’un équivalent du serment d’Hippocrate pour les ingénieurs informaticiens ?
Quel pourrait être l’impact d’une telle disposition sur l’éthique personnelle des professionnels des domaines concernés et de façon générale sur celle des entreprises qui les emploient ?
Quels sont les freins à l'application de ces codes de conduite ?
Voir aussi :
Les Googlers contre le conseil d'éthique de l'IA de Google, car il privilégie la proximité du pouvoir sur le bien-être des groupes marginalisés
Google dissout son conseil d'éthique de l'IA une semaine à peine après sa mise en place suite à un mouvement collectif d'indignation
IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique a été mis au point par des chercheurs d'IBM et du MIT