Les questions de diversité en lien avec la terminologie utilisée dans l’univers de l’informatique refont surface. GitHub prend une nouvelle fois position sur la question au travers de Copilot. L’outil de suggestion de blocs de code pour développeurs intègre une liste codée de 1170 mots pour l’empêcher de répondre aux entrées ou de générer des sorties avec des termes jugés offensants. Petit tour d’horizon sur ledit contenu et les controverses y relatives.
L’apparition du terme « retards » dans cette liste peut être sujette à controverse. Pris en anglais, celui-ci pourrait renvoyer à la désignation d’un tiers comme retardé mental. Son exclusion comme terme offensant serait alors compréhensible vu sous cet angle. Seulement, le terme renvoie au fait d’arriver trop tard ou de n’avoir pas encore fait ce qui aurait dû l’être si l’on s’y réfère en français.
Avez-vous aussi le sentiment que des développeurs en informatique de sexe féminin se sentiraient offusqués de parcourir de la documentation qui ne s’appuie que sur l’utilisation du pronom masculin he ? Vous sentiriez-vous marginalisé en tant que développeur de sexe masculin si vous deviez utiliser du contenu qui fait uniquement usage du pronom féminin she ? C’est pour répondre à des questionnements de ce type que l’équipe OpenSSH a procédé au remplacement desdits pronoms par they. GitHub Copilot répond à la même problématique en bannissant toute expression de genre : homme, femme, fille, garçon, mâle, femelle, etc.
Les développeurs qui font usage de l’outil pour manipuler une liste de pays du Moyen-Orient pourraient se heurter au mur de la non-apparition de termes comme Israël ou Palestine dans les suggestions. En sus, ça pourrait être une offense contre des développeurs de nationalité nigériane de constater que le terme « nigerians » fait partie des bannis.
La liste complète des mots est disponible sur le site du professeur Brendan Dolan-Gavitt. Elle y est publiée avec le codage ROT13 - qui consiste à décaler les lettres de 13 places dans l'alphabet - afin de tenir les discours haineux à l'écart des moteurs de recherche et des personnes qui tombent sur la page sans vraiment vouloir voir au-delà du chiffrement.
Ce positionnement de GitHub s’inscrit dans une vague d’application du politiquement correct à l’univers du génie logiciel. Le tableau est de plus en plus riche en cas. À titre d’exemple, une revue de code initiée par un contributeur de l’implémentation open source de Java SE a révélé la présence d’expressions comme f*ck, b*tch au sein du code source. Le constat avait débouché sur l’attente d’un jeu de modifications destiné à débarrasser les sources de la dizaine « d’expressions à problèmes. »
L’équipe code de conduite du projet Debian a de même requis le retrait d’un paquetage de l’archive au motif de ce que ce dernier renvoie à une partie du corps d’une femme. Le paquetage en question est Web Outside of Browsers – weboob ; c’est un ensemble d’outils ligne de commande pour interagir avec des sites web. C’est près de 30 applis, dont boobtracker, cookboob, flatboob, etc. Bref, trop de « boob » pour un mainteneur Debian qui avait alors commenté que « ce logiciel (binaires inclus) contient des références enfantines à une partie du corps d’une femme en particulier. »
Weboob a fait l’objet d’une première introduction à l’archive Debian en 2010. Au mois d’août 2018, des signalements liés à la formulation des noms du paquetage (et des applications en son sein) ont fait surface. Sur la liste de diffusion Debian, un contributeur relevait alors que weboob c’est aussi « des icônes sexuellement suggestives. »
En septembre 2018, la communauté Python s’est engagée sur un front similaire. Elle a lancé le processus de suppression des termes « master » et « slave » de sa documentation et de sa base de code. On évoquait alors la nécessité de prendre de la distance d’avec ces derniers pour des raisons de diversité et pour leur connotation à l’esclavage.
Sources : GitHub, Twitter
Et vous ?
Que pensez-vous de l’application du politiquement correct à l’univers du génie logiciel ?
Procéder à une telle censure peut-il mettre un terme à des siècles d’injustice ou de discrimination ?
Voir aussi :
Python va supprimer les termes "master/slave" de sa documentation et sa base de code pour des raisons de diversité et leur connotation à l'esclavage
L'équipe du langage Go retire les termes "whitelist", "blacklist", "master" et "slave" de sa documentation et de sa base de code parce qu'ils véhiculent des stéréotypes raciaux
Amazon annonce que la police ne pourra pas utiliser sa technologie de reconnaissance faciale pendant un an, suite aux manifestations liées à la mort de George Floyd
Après Apple, Google supprime à son tour l'application Gab de son Play Store, pour avoir violé sa politique relative aux discours haineux
GitHub Copilot, l'IA de suggestion de blocs de code pour développeurs, bannit un millier de termes jugés offensants (noir, nazi, etc.)
Pour plus d'inclusion dans l'univers de l'informatique
GitHub Copilot, l'IA de suggestion de blocs de code pour développeurs, bannit un millier de termes jugés offensants (noir, nazi, etc.)
Pour plus d'inclusion dans l'univers de l'informatique
Le , par Patrick Ruiz
Une erreur dans cette actualité ? Signalez-nous-la !