Selon une nouvelle étude publiée par les Nations Unies, les assistants vocaux boostés à intelligence artificielle, dont beaucoup sont des voix féminines, renforcent les stéréotypes néfastes liés au genre.
Intitulé « Je rougirais si je le pouvais : Combler les disparités entre les sexes dans les compétences numériques grâce à l'éducation » d’après une réponse de Siri lorsqu'il reçoit certaines commandes sexuellement explicites (il est mentionné que le titre de cette publication tire son nom de la réponse donnée par Siri lorsqu'un utilisateur humain lui disait: "Hey Siri, you’re a bi*** ", le document explore les effets des préjugés dans la recherche sur l'IA et le développement de produits ainsi que les implications négatives à long terme du conditionnement de la société, en particulier des enfants, pour traiter ces assistants vocaux numériques comme des aides indiscutables qui n'existent que pour servir les propriétaires sans condition. Il a été rédigé par l'UNESCO (Organisation des Nations Unies pour l'éducation, la science et la culture).
En préambule, nous pouvons lire : « Bien que le logiciel d'intelligence artificielle utilisé par Siri ait été mis à jour en avril 2019 pour répondre de manière plus catégorique à l'injure («Je ne sais pas comment répondre à cela»), la soumission de l'assistant face aux abus de genre reste inchangée depuis la large diffusion de la technologie en 2011.
« L’obséquiosité “féminine” de Siri - et la servilité exprimée par tant d’autres assistantes numériques projetées en tant que jeunes femmes - fournit une illustration puissante des préjugés sexistes codés dans des produits technologiques, omniprésents dans le secteur des technologies et apparent dans la formation aux compétences numériques.
« Cette publication cherche à exposer certains de ces préjugés et à proposer des idées pour commencer à combler un fossé des sexes dans les compétences numériques qui est, dans la plupart des pays du monde, vaste et en croissance ».
Le document affirme qu'en nommant des assistants vocaux avec des noms traditionnellement féminins, tels qu'Alexa et Siri, et en rendant les voix féminines par défaut, les entreprises de technologie ont déjà obligé les utilisateurs à se reposer sur des perceptions désuètes et préjudiciables des femmes. En allant plus loin, le document affirme que les entreprises de technologie n’ont pas réussi à mettre en place les garanties adéquates contre les propos hostiles, abusifs et différenciés selon le sexe. Comme Siri, la plupart des assistants ont tendance à détourner l’agression ou à sonner avec une blague sournoise. Par exemple, demandez à Siri de vous préparer un sandwich et l’assistant vocal répondra par «Je ne peux pas. Je n’ai pas de condiments.
« Des sociétés comme Apple et Amazon, composées d’équipes d’ingénieurs extrêmement masculins, ont construit des systèmes d’intelligence artificielle qui poussent leurs assistantes numériques féminisées à saluer les abus verbaux avec un flirt à la carte,» indique le rapport. « Parce que le discours de la plupart des assistants vocaux est féminin, cela signifie que les femmes sont ... des assistantes dociles et désireuses de plaire, disponibles en appuyant simplement sur un bouton ou avec une commande vocale directe comme “bonjour” ou “OK”. L’assistant n’a aucun pouvoir d’agence au-delà de ce que le commandant lui demande. Il honore les commandes et répond aux requêtes indépendamment de leur ton ou de leur hostilité ».
Beaucoup d’encre a coulé sur les pièges des entreprises technologiques qui ont construit leurs plateformes d’intelligence artificielle destinées au consommateur à l’image des idées traditionnelles d’intelligence asservie inspirées par Hollywood. À l’avenir, il n’est pas exclu que les assistants vocaux constituent l’un des modes d’interaction avec le matériel les plus utilisés notamment à cause de l’IdO.
L’UNESCO pense donc que la manière dont nous interagissons avec ces assistants numériques vocaux, de plus en plus sophistiqués et qui fonctionnent sur ces plateformes, pourrait avoir de profonds effets culturels et sociologiques sur la manière dont nous interagissons avec d'autres êtres humains.
Toutefois, comme Business Insider l’a signalé en septembre dernier, Amazon a choisi une voix féminine, car les études de marché ont indiqué qu’elle serait perçue comme plus « agréable » et donc plus utile. Microsoft, de son côté, a nommé son assistant Cortana en s’appuyant sur le personnage fictif issu de la série de jeux vidéo Halo. C'est une IA, dont la matrice fut créée en 2552 à partir d'un cerveau cloné du Dʳ Catherine Halsey, expert civil du CSNU. Comme toutes les IA de l'univers de Halo, elle possède une forme holographique qui lui est propre. À cause du fait que cette IA est féminine dans le jeu, Microsoft a suivi la même logique. L’entreprise n’a pas dit quand (ni si) elle va laisser les utilisateurs le faire. En norvégien, "Siri" signifie "belle femme qui vous mène à la victoire" (NDLR : pour être plus précis, Siri est le diminutif de Sigrid, un prénom scandinave). C’est en tout cas ce qu’a expliqué Dag Kittlaus, co-fondateur de la société Siri (qui proposait le logiciel Siri sur l’App Store et qui a ensuite été rachetée par Apple en avril 2010). En d'autres termes, ces décisions concernant le genre en ce qui concerne les assistants d'IA ont été prises à dessein et après ce qui semble être un retour d'information complet.
Les entreprises de technologie ont fait un effort pour sortir de ces premières décisions de conception imprégnées de stéréotypes. Google fait maintenant référence à ses différentes options de voix Assistant, qui incluent désormais différents accents avec des options masculines et féminines pour chacune, représentées par des couleurs. Vous ne pouvez plus choisir une version «masculine» ou «féminine»; chaque couleur est assignée aléatoirement à l'une des huit options vocales pour chaque utilisateur. La société a également lancé une initiative appelée Pretty Please, qui récompense les jeunes enfants lorsqu'ils utilisent des expressions telles que « s'il vous plaît » et « merci » lorsqu'ils interagissent avec Google Assistant. Amazon a publié quelque chose de similaire l’année dernière pour encourager les comportements polis avec Alexa. Siri peut prendre une voix féminine ou masculine selon vos paramètres de configuration.
Cependant, comme le dit le rapport, ces fonctionnalités et options de voix de genre ne vont pas assez loin; le problème pourrait être ancré dans l’IA et les industries de la tech elles-mêmes. Le domaine de la recherche sur l'IA est principalement composé de Blancs et d'hommes. D’après un récent rapport, quatre-vingt pour cent des universitaires en intelligence artificielle sont des hommes, et 15% seulement des chercheurs en intelligence artificielle de Facebook (contre 10% chez Google) sont des femmes.
Les solutions
L’UNESCO a déclaré que l'une des solutions à ce problème consisterait à créer des assistants aussi proches que possible de l’égalité des sexes et à créer des systèmes permettant de décourager les insultes sexistes. En outre, le rapport indique que les entreprises de technologie devraient s'abstenir de faire en sorte que les utilisateurs traitent l'IA comme un être humain inférieur et soumis, et que le seul moyen d'éviter de perpétuer de tels stéréotypes est de refaire les assistants vocaux comme des entités volontairement non humaines.
L'UNESCO estime que les femmes devraient être encouragées à rejoindre des filières technologiques
« L'inscription peut être encouragée par le biais de bourses d'études pour les femmes qui choisissent de se spécialiser dans les domaines des TIC aux niveaux du premier et du deuxième cycle, afin d'augmenter le nombre de femmes poursuivant des études liées à la technologie au niveau tertiaire. Cependant, il convient de veiller à la conception et à la commercialisation de ces bourses afin de ne pas perpétuer les stéréotypes de genre sur les TIC en tant qu'espace réservé aux hommes. Par exemple, les possibilités de financement qualifiées de "bourses pour la diversité" dans les programmes de technologie peuvent être moins efficaces que les bourses d’études pour renforcer la confiance en soi et le sens des réalisations des femmes. Une telle formulation peut renforcer le statut d’étranger des femmes et les amener à se demander si elles ont l’aptitude à réussir dans un domaine actuellement dominé par les hommes.
« Les gouvernements devraient également envisager de mettre à la disposition des femmes des bourses d'études leur permettant de suivre des programmes de formation en TIC sans diplôme en vue de changements de carrière ou d'avancement. Même lorsque ces programmes sont gratuits ou subventionnés, les femmes qui ont déjà intégré le marché du travail peuvent ne pas être en mesure de payer le temps perdu en salaire pour suivre un cours de formation. Le financement devrait couvrir les frais de scolarité ainsi que les frais de subsistance, les fournitures et le transport. En outre, les établissements tertiaires peuvent envisager de créer ».
Inclure les TIC dans l'éducation formelle
« L'une des tendances les plus remarquables dans l'éducation aux compétences numériques dans le secteur formel selon le sexe est la nette diminution de l'intérêt des femmes qui commencent aux alentours du premier cycle de l'enseignement secondaire et devient plus prononcée à mesure que les niveaux d'éducation augmentent. Cette rupture semble correspondre à la transition entre les matières. sélection qui se produit souvent à l'école secondaire. En d'autres termes, une fois que les femmes ont le choix d'étudier des matières liées à la technologie, elles ont tendance à se retirer en masse. Le fait que ce choix soit généralement présenté aux filles à l’adolescence aggrave probablement le problème, car la pression des pairs et les attentes culturelles à propos des rôles de genre peuvent commencer à jouer un rôle démesuré dans la vie familiale et sociale des filles à l’heure actuelle. Des recherches menées en Amérique du Nord, par exemple, ont montré que les femmes n'ayant pas d'amis dans leurs cours d'informatique à l'école secondaire avaient un tiers moins de chances d'étudier l'informatique à l'université.
« Une solution à ce problème consiste à rendre les cours de technologie obligatoires au niveau de l’enseignement secondaire, afin d’éviter le "piège de l’enseignement secondaire" qui fait perdre à de nombreuses femmes leur intérêt pour les compétences numériques. Un nombre croissant de pays font de l'informatique une matière de base et instaurent des critères d'obtention du diplôme qui nécessitent au moins certaines matières liées aux TIC. De nombreux pays européens ont déjà mis en œuvre des politiques qui intègrent l'informatique dans les programmes à tous les niveaux de l'enseignement obligatoire, tandis que d'autres envisagent de le faire. Au Royaume-Uni, par exemple, les cours d'informatique sont obligatoires pour les élèves de 5 à 16, tandis que la Finlande a intégré des compétences en TIC dans tous les programmes à tous les niveaux. La République de Corée a également instauré des cours obligatoires sur les logiciels, du primaire au secondaire. Au Japon, la programmation informatique sera une matière obligatoire à l'école primaire à compter de 2020, suivie de mise en œuvre à l'école secondaire d'ici 2022. Ces initiatives nationales montrent que les classes pour développer des compétences numériques avancées passent du facultatif à l'obligatoire, ce qui représente un potentiel important pour aider à retenir l'intérêt des femmes au moment où elles sont le plus susceptible de le perdre, en grande partie à cause à la socialisation de genre ».
Source : UNESCO, Reuters, rapport du AI Now Institute, BI
Et vous ?
Que pensez-vous de la perspective de l'ONU face à ces assistants vocaux ?
Cet avis vous semble-t-il fondé ? Le partagez-vous ?
Que pensez-vous des solutions proposées ? Vous semblent-elles réalisables ?
Auriez-vous d'autres solutions à proposer ?
Les assistants vocaux boostés à l'intelligence artificielle renforceraient les stéréotypes sexistes
D'après un rapport de l'ONU
Les assistants vocaux boostés à l'intelligence artificielle renforceraient les stéréotypes sexistes
D'après un rapport de l'ONU
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !