En effet, l’API Cloud Vision permet aux développeurs d’intégrer la reconnaissance d’images dans leurs applications. Via cette dernière, il est par exemple possible de détecter des entités ou étiquettes dominantes dans des images, extraire du texte dans une image et en détecter la langue, détecter des images inappropriées dans le cadre de la modération de contenus imagés. Entre autres fonctionnalités, l’API Cloud Vision de Google permet encore de détecter l’apparition d’un visage sur des photos, avec les traits du visage associés tels que le placement des yeux, du nez et de la bouche, mais aussi avec les attributs comme la joie et la tristesse. Dans les derniers développements à son sujet, c’est sa capacité à poser des étiquettes de genres aux images d’individus qui fait parler…
Dans un récent courriel à l’intention des développeurs, Google fait savoir qu’il n’utilisera plus d’étiquettes de genre sur les images des individus qui apparaissent sur les contenus soumis à l’analyse de ce logiciel. L’entreprise annonce qu’au lieu de faire apparaître « homme » ou « femme », elle va simplement adosser l’étiquette « personne » aux images d’individus sur une photo. D’après Business Insider, les changements sont bel et bien effectifs…
D’après Google, la manœuvre se justifie par l’impossibilité de déduire le sexe d’un individu uniquement à partir de son apparence. Dans la même lancée, l’entreprise a cité ses règles d’éthique en matière d’intelligence artificielle qui stipulent que l’ajout d’étiquettes de genre est de nature à exacerber les préjugés injustes.
« Les algorithmes utilisés en intelligence artificielle et les jeux de données peuvent mettre en avant, renforcer ou réduire les préjugés injustes. Nous reconnaissons qu'il n'est pas toujours simple de distinguer les préjugés équitables des préjugés injustes et que cette distinction diffère selon les cultures et les sociétés. Nous chercherons à éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'appartenance ethnique, le sexe, la nationalité, le revenu, l'orientation sexuelle, les capacités et les croyances politiques ou religieuses », lit-on dans les règles d’éthique de l’entreprise en matière d’IA.
Avec la note d’information de Google c’est tout le débat sur la question de biais en matière d’intelligence artificielle qui est relancé. D’après un expert de Mozilla sur la question, la décision de Google est une très bonne chose.
« Chaque fois que vous procédez à la classification automatique des personnes, qu'il s'agisse de leur sexe ou de leur orientation sexuelle, vous devez décider des catégories que vous utilisez en premier lieu et cela vient avec son lot d'hypothèses. Le fait de classer les gens comme hommes ou femmes suppose que le sexe est binaire. Toute personne qui ne correspond pas à cette catégorie sera automatiquement mal classée. Il s’agit donc de plus que des préjugés car le sexe d'une personne ne peut pas être déduit de son apparence. Tout système d'IA qui adopte une telle approche se trompe de façon inévitable sur le sexe des personnes », souligne Frederike Kaltheuner de Mozilla.
D’après les retours de Business Insider, les premières réactions des développeurs commencent à tomber et ne vont pas toujours dans le sens d’applaudir la décision de Google.
« Je ne pense pas que le politiquement correct ait sa place dans les API. Si je peux identifier dans 99% des cas si quelqu'un est un homme ou une femme, alors un algorithme le peut aussi. Vous ne voulez pas le faire ? Les entreprises iront donc vers d'autres services », lit-on.
Source : BI
Et vous ?
Que pensez-vous du positionnement de Google ?
Est-ce la meilleure approche pour se défaire du problème de biais lié au genre en matière d’intelligence artificielle ?
Est-ce une approche que l’industrie de l’intelligence artificielle devrait reproduire ?
Voir aussi :
Google lance l'API Cloud Vision pour permettre aux développeurs d'intégrer la reconnaissance d'images dans leurs applications
TensorFlow Serving : un outil open source de Google pour faciliter la mise en production des modèles de machine learning