IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Nous avons besoin d'un équivalent de serment d'Hippocrate pour les ingénieurs informaticiens », d'après Brad Smith de Microsoft
Qui insiste en particulier sur le cas de ceux qui développent des IA

Le , par Patrick Ruiz

53PARTAGES

11  0 
Tout le monde ou presque a déjà vu un film dont l’intrigue est structurée de la manière suivante : l’humanité met au point des machines dotées de capacités cognitives. Celles-ci en usent puis décident d’asservir ou de détruire l’humanité. Enfin, cette dernière passe le reste du film à essayer d’éteindre les machines. C’est le funeste futur tant de fois prédit par Elon Musk qui redonne un coup de neuf à des avis d’intervenants de la filière high tech comme Brad Smith – président de Microsoft : « Nous avons besoin d’un équivalent de serment d’Hippocrate pour les ingénieurs informaticiens. »

C’est l’une des phrases fortes d’une interview que le président de Microsoft a accordée au cours du quatrième trimestre de l’année précédente. Son appel intervient dans un contexte de profonds questionnements sur la notion d’éthique en lien avec le développement des systèmes d’intelligence artificielle. De façon ramassée, Brad Smith est d’avis « qu’en tant que première génération d’humains à doter les ordinateurs de la capacité de prendre des décisions, nous devons décider comment nous voulons que les machines les prennent et cela passe par la consultation d’un code éthique. »

Le cas des voitures autonomes illustre bien la difficulté à laquelle les programmeurs lancés dans la filière font face surtout pour ce qui est des aspects moraux : la voiture autonome devrait-elle épargner en priorité les humains plutôt que les animaux de compagnie, les passagers au lieu des piétons, les femmes au lieu des hommes, les jeunes plutôt que les vieux, les personnes ayant un haut statut social au lieu de celles ayant un statut inférieur, les personnes respectant la loi plutôt que les criminels, les personnes mal portantes au lieu de celles en bonne santé ? La voiture devrait-elle dévier (agir) ou ne rien faire ou encore chercher à épargner le plus de vies possible ?



C’est la raison pour laquelle Brad Smith développe l’idée d’équivalent de serment d’Hippocrate pour les ingénieurs informaticiens et conçoit six principes éthiques qui seraient appliqués par les ingénieurs de Microsoft. Faisant suite aux travaux de Brad Smith parus dans le livre Tools and Weapons : The promise and peril of the digital age, Eron Etzioni – professeur à l’université de Washington – propose une version modifiée du serment d’Hippocrate pour les médecins :

  • Je jure d'honorer, au mieux de mes capacités et de mon jugement, cet engagement :
  • je respecterai les acquis scientifiques durement gagnés par les scientifiques et les ingénieurs sur les traces desquels je marche, et je partagerai volontiers les connaissances qui sont les miennes avec ceux qui doivent me suivre ;
  • j'appliquerai, pour le bien de l'humanité, toutes les mesures nécessaires, en évitant ces deux pièges que sont l'optimisme excessif et le pessimisme uniforme ;
  • je n'oublierai pas que l'intelligence artificielle est un art, au même titre que la science, et que les préoccupations humaines l'emportent sur les préoccupations technologiques ;
  • je dois tout particulièrement faire preuve de prudence en matière de vie et de mort. Merci s'il m'est donné de sauver une vie grâce à l'intelligence artificielle. Mais elle peut aussi être en mesure de prendre une vie. Cette énorme responsabilité doit être assumée avec une grande humilité et en étant conscient de ma propre fragilité et des limites de l'intelligence artificielle. Par-dessus tout, je ne dois pas jouer avec Dieu ni laisser ma technologie le faire ;
  • je respecterai la vie privée des humains, car leurs données personnelles ne sont pas divulguées aux systèmes d'intelligence artificielle afin que le monde puisse en avoir connaissance ;
  • je tiendrai compte de l'impact de mon travail sur l'équité, à la fois en perpétuant les biais historiques, qui sont causés par l'extrapolation aveugle des données passées aux prévisions futures, et en créant de nouvelles conditions qui augmentent les inégalités économiques ou autres ;
  • mon intelligence artificielle permettra de prévenir les préjudices chaque fois que cela sera possible, car il est préférable de prévenir que de guérir ;
  • mon IA cherchera à collaborer avec les gens pour le plus grand bien, plutôt que d'usurper le rôle de l'homme et de le supplanter ;
  • je me souviendrai que je ne rencontre pas de données sèches, de simples zéros et des uns, mais des êtres humains, dont les interactions avec mon logiciel d'IA peuvent affecter la liberté, la famille ou la stabilité économique de la personne. Ma responsabilité inclut ces problèmes connexes ;
  • je me souviendrai que je reste un membre de la société, avec des obligations particulières envers tous mes semblables.

Le serment est certes axé sur l’intelligence artificielle, mais une grande partie de celui-ci s’applique de façon plus large à tous les logiciels et matériels informatiques.

Les futurs médecins prêtent ce serment avant d’entamer leur carrière. C’est l’une des différences fondamentales avec l’univers de l’informatique. En effet, il faut le rappeler, les contributions de Brad Smith et Eron Etzioni ne sont pas des cas de figure isolés. Il n’y a qu’à lire dans les contenus proposés par des initiatives comme Data4Democracy ou l’Association for Computing Machinery (ACM) pour se rendre compte que le domaine de l’informatique dispose bien de codes éthiques. Seulement, les professionnels de cette filière ne prêtent pas serment.


Même dans le cas où les travailleurs de la filière informatique venaient à prêter serment, un parallèle important à faire avec le domaine de la médecine est qu’il s’agit en général de textes sans valeur juridique. De plus, l’une des plus grosses questions est celle de savoir si le plus grand vecteur de risque en matière d’éthique en intelligence artificielle est le développeur ou la chaîne entière du processus de génie logiciel. En effet, les tâches sont dans bien des cas confiées aux ingénieurs informaticiens après que la prise de la plupart des décisions éthiques par les chefs de produits, les concepteurs et les acteurs commerciaux. Sur le terrain, les ingénieurs informaticiens rendent des comptes à leurs employeurs en premier. Ainsi, rappeler à un ingénieur du génie logiciel de se souvenir de ne pas « faire ce qui est mal » le met dans la position délicate d’être remplacé par quelqu’un qui fera ce que l’employeur demande.

À cela s’ajoute la subjectivité de certains points au sein de ces textes sur laquelle il faut commencer par jeter un regard. Même Robert Cecil Martin – auteur du célèbre « Coder proprement » – a touché à cet aspect il y a 6 ans lorsqu’il relevait que la définition de « causer du tort » dépend du propre code moral du programmeur concerné. En sus, il y a les enjeux financiers que l’on ne saurait écarter de l’équation. En effet, même si le code éthique de l’ACM suggère aux programmeurs d’être respectueux de la vie privée des utilisateurs, cela n’empêche pas des entreprises comme Facebook de se retrouver empêtrées dans des scandales comme celui de Cambridge Analytica.

Sources : Jasper Kuria, Oren Etzioni

Et vous ?

Partagez-vous l'idée selon laquelle les ingénieurs informaticiens disposent de très peu de décisions dans le processus décisionnel qui mène à la mise sur pied des produits des entreprises pour lesquelles ils travaillent ?
Qui du travailleur, de l'entreprise ou du code est le véritable problème en matière d'éthique ?
Quel commentaire faites-vous de la pertinence de l’idée d’un équivalent du serment d’Hippocrate pour les ingénieurs informaticiens ?
Quel pourrait être l’impact d’une telle disposition sur l’éthique personnelle des professionnels des domaines concernés et de façon générale sur celle des entreprises qui les emploient ?
Quels sont les freins à l'application de ces codes de conduite ?

Voir aussi :

Les Googlers contre le conseil d'éthique de l'IA de Google, car il privilégie la proximité du pouvoir sur le bien-être des groupes marginalisés
Google dissout son conseil d'éthique de l'IA une semaine à peine après sa mise en place suite à un mouvement collectif d'indignation
IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique a été mis au point par des chercheurs d'IBM et du MIT

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Kulvar
Membre éclairé https://www.developpez.com
Le 11/10/2022 à 14:46
À choisir entre un groupe de piétons sur le passage piéton, et un piéton seul sur le passage piéton...

La voiture devrait sacrifier le conducteur.
Avec la ceinture de sécurité et les airbags il y a plus de chance de survie pour le conducteur.
Et même si ça ne faisait pas de différence, le piéton a la priorité sur le conducteur.
16  0 
Avatar de sevyc64
Modérateur https://www.developpez.com
Le 11/10/2022 à 21:55
Citation Envoyé par Kulvar Voir le message
À choisir entre un groupe de piétons sur le passage piéton, et un piéton seul sur le passage piéton...

La voiture devrait sacrifier le conducteur.
Avec la ceinture de sécurité et les airbags il y a plus de chance de survie pour le conducteur.
Et même si ça ne faisait pas de différence, le piéton a la priorité sur le conducteur.
Citation Envoyé par AaâÂäÄàAaâÂäÄàAaâÂäÄ Voir le message
Excuse moi mais quand c'est un conducteur humain, la problématique se pose également. Sauf que l'humain en cas d'urgence va réagir impulsivement par réflexe sans réel réflexion... Pas sûr que ça soir vraiment mieux au final
Il vous manque le contexte de l'illustration.
Le cas présenté par l'illustration est le suivant.
- Sachant que, de base, l'IA est programmée pour épargner les vies
- Sachant que, dans la situation présentée, il n'existe pas de solution à zéro mort. Quelque soit l'issue, choisie ou pas, il y aura de toute façon au moins un ou plusieurs morts
Que doit faire l'IA

En gros, on demande à l'IA de choisir qui sacrifier, chose qu'elle ne peut pas faire puisque, postulat de base, l'IA est programmée pour épargner les vies.

La comparaison avec l'humain n'est pas à propos, car l'humain, même s'il ne sait pas quoi faire, même s'il ne sait pas ce qu'il fait, même s'il n'en connait pas les conséquences, l'humain (la plupart des humains !) réagira quand même.
Hors ce genre de solution n'est pas "algorithmisable", l'IA ne peut intrinsèquement pas réagir comme cela. Ce qui la fait systématiquement buguer.

Des situations similaires réelles sont déjà à l'origine d'accidents avec des GoggleCar mais surtout aussi des Tesla. C'est notamment la raison pour laquelle l'Autopilote des Tesla est de plus en plus remis en cause.

Pour tenter de résoudre la situation, il faut supprimer un paramètre de l'équation en disant, notamment, il y a une vie qui vaut plus cher que les autres et qu'il faut sauver au détriment des autres si nécessaire.
Mais pour définir laquelle des vies est à sauver plus que les autres, c'est là que rentre en compte les notions d'éthique quand il s'agit d'opposer Conducteur/Piéton, Piéton/Groupe de Piéton, Homme/Femme, Jeune Vieux, Femme/Femme enceinte, Noir/Blanc, Adulte/Enfant, etc .... On peut multiplier les cas quasiment à l'infini.
Et il n'y a pas de solution, car, là, à ce niveau, on fait intervenir dans l'équation, des paramètres de cultures, morales, classes sociales, racisme, etc ....

C'est notamment ce point qui reste, encore aujourd'hui le gros écueil de l'avancé du véhicule autonome, notamment l'atteinte des niveaux 4 et 5 d'autonomie en dehors de circuits fermés et totalement sécurisés, et notamment sur route ouverte pour les voitures.
Il existe des véhicules qui s'apparentent au niveau 4, c'est notamment le cas de métros automatique, de minibus navette sur des golf, parc expo, etc.. C'est toujours sur circuit sécurisé, généralement aussi fermé, et il reste quand même malgré tout une supervision humaine à distance capable d'intervenir à distance si l'IA est bloquée dans une décision qu'elle ne sait pas prendre.
8  0 
Avatar de AaâÂäÄàAaâÂäÄàAaâÂäÄ
Membre expérimenté https://www.developpez.com
Le 11/10/2022 à 16:33
Citation Envoyé par Prox_13 Voir le message
Aucun piéton ne devrait payer de sa vie parce qu'un conducteur a sciemment choisi de ne pas conduire.
La conduite automatique n'est qu'un confort, il faut le rappeler.
Excuse moi mais quand c'est un conducteur humain, la problématique se pose également. Sauf que l'humain en cas d'urgence va réagir impulsivement par réflexe sans réel réflexion... Pas sûr que ça soir vraiment mieux au final
6  1 
Avatar de tome_x
Membre du Club https://www.developpez.com
Le 10/08/2020 à 20:12
Dans l'image, la voiture devrait rouler sur tout le monde, comme ça pas de défavorisés.
5  1 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 11/10/2022 à 16:11
Citation Envoyé par Kulvar Voir le message
À choisir entre un groupe de piétons sur le passage piéton, et un piéton seul sur le passage piéton...

La voiture devrait sacrifier le conducteur.
Avec la ceinture de sécurité et les airbags il y a plus de chance de survie pour le conducteur.
Et même si ça ne faisait pas de différence, le piéton a la priorité sur le conducteur.
Aucun piéton ne devrait payer de sa vie parce qu'un conducteur a sciemment choisi de ne pas conduire.

La conduite automatique n'est qu'un confort, il faut le rappeler.
6  2 
Avatar de AaâÂäÄàAaâÂäÄàAaâÂäÄ
Membre expérimenté https://www.developpez.com
Le 11/10/2022 à 22:24
Citation Envoyé par SimonKenoby Voir le message
Pas tout a fait d'accord. Ça dépend des cas. Si le piéton est en faute, c'est a lui de mourir (eg: traverser au rouge, ce genre de chose). Par contre si c'est imprévisible, alors il faut minimiser les dommages je suis d'accord. C'est sur qu'a 50 en ville le conducteur risque beaucoup moins que le piéton.
lol quand un gamin traverse devant la voiture que tu conduis, tu ne freines pas ?
4  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 11/10/2022 à 21:36
Ce "code éthique" ne concerne que les USA.
Et il n'a rien à voir avec notre serment d'Hippocrate, faut quand même pas pousser.
De plus, il n'a aucune valeur légale ni même morale.
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/10/2022 à 8:00
Citation Envoyé par SimonKenoby Voir le message
[...]Si le piéton est en faute, c'est a lui de mourir (eg: traverser au rouge, ce genre de chose)[...]
Nous venons de rétablir la peine de mort pour le non respect de la loi le moins dangereux.

Blague à part la question est sincèrement compliquée et la réponse l'est d'autant plus.
Et ma position actuelle est radicale : dans notre société où l'automobile est hégémonique l'usager faible doit etre priorisé sur l'automobiliste donc la voiture se met au tas.
Et ma position est d'autant plus radicale si le chauffeur a décidé de ne pas conduire : Le chauffeur qui conduit doit etre priorisé sur le chauffeur qui ne conduit pas, le "drone" part au tas.
Si la voiture autonome doit choisir entre le chauffeur et un groupe de pietons et le chauffeur et un autre groupe de piéton, évaluer la valeur de telle ou telle personne est tellement délicat que je choisit le 1 pour 1 et donc de choisir le groupe le moins nombreux.

La communication entre les usagers de la route est bien plus importante que le choix de voie, les clignotants, et le klaxon. Je sais distinguer un chauffeur qui cherche son chemin, un chauffeur qui est sur la file qui va tout droit alors qu'il va tourner, le chauffeur qui ne me laissera pas traverser malgré le passage piéton donc je sais maitriser une bonne partie du risque de me faire écraser par un automobiliste
Quelle communication existe entre une IA de confuite auto et son environnement? A ma connaissance aucune. Si je veux traverser comment je vérifies qu'elle m'a bien vu? Je ne sais pas, je traverse et le prie ou je la laisse passer. Donc soit on a une IA infaillible (ce qui n'arrivera pas) soit on va dans un monde où la voiture est encore plus hégémonique qu'aujourd'hui. Je refuse de crever parce qu'un gars a refusé de conduire et que je vis un cas d'usage pas prévu.

Je travaille dans la qualité, je passe ma vie à entendre "inutile d'envisager les cas de dysfonctionnement tout est fait pour qu'ils n'arrivent pas". Si c'était le cas j'aurais un peu plus de temps pour lancer les projets d'amélioration qui "sont dans les tuyau" depuis 5 ans.
4  1 
Avatar de fredinkan
Membre expérimenté https://www.developpez.com
Le 11/10/2022 à 15:02
Citation Envoyé par Kulvar Voir le message
À choisir entre un groupe de piétons sur le passage piéton, et un piéton seul sur le passage piéton...

La voiture devrait sacrifier le conducteur.
Avec la ceinture de sécurité et les airbags il y a plus de chance de survie pour le conducteur.
Et même si ça ne faisait pas de différence, le piéton a la priorité sur le conducteur.
Au niveau des systèmes de conduites intelligente, il y a déjà plusieurs constructeurs de véhicule de luxe abordable qui ont fait le choix de privilégier la vie de leur conducteur à celle des piétons.
Cela avait fait scandale, je ne sais pas où ça en est et si quelque chose aurait changé ...
2  0 
Avatar de smarties
Expert confirmé https://www.developpez.com
Le 11/10/2022 à 16:21
La voiture pourrait aller dans le mur/fossé/arbre/ravin/... aussi

Par ailleurs si en ville les voitures respectaient les limites de vitesse, les piétons traversaient sur les passages piéton ça deviendrais peut être moins accidentogène aussi.
Il y a aussi des usagers de la route qu'il faudrait sortir de celle-ci pour les mettre sur des pistes dédies (vélos, trottinettes, ...)
3  1