Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

IA : l'API Cloud Vision de Google n'associe plus d'étiquettes de genre aux images de personnes
Car on ne peut déduire le sexe d'un tiers de son apparence, d'après l'entreprise

Le , par Patrick Ruiz

111PARTAGES

9  0 
Après une phase de préversion limitée lancée au début du mois de décembre 2015, l’API Cloud Vision de Google est passée en version bêta en février 2016 et s’est ouverte à un public plus large. « Maintenant, tout le monde peut soumettre des images à l'API Cloud Vision pour comprendre le contenu de ces images - de la détection d'objets de tous les jours à la lecture de texte à l’intérieur de l'image ou l'identification de logos de produits », expliquait Google dans un billet de blog.

En effet, l’API Cloud Vision permet aux développeurs d’intégrer la reconnaissance d’images dans leurs applications. Via cette dernière, il est par exemple possible de détecter des entités ou étiquettes dominantes dans des images, extraire du texte dans une image et en détecter la langue, détecter des images inappropriées dans le cadre de la modération de contenus imagés. Entre autres fonctionnalités, l’API Cloud Vision de Google permet encore de détecter l’apparition d’un visage sur des photos, avec les traits du visage associés tels que le placement des yeux, du nez et de la bouche, mais aussi avec les attributs comme la joie et la tristesse. Dans les derniers développements à son sujet, c’est sa capacité à poser des étiquettes de genres aux images d’individus qui fait parler…

Dans un récent courriel à l’intention des développeurs, Google fait savoir qu’il n’utilisera plus d’étiquettes de genre sur les images des individus qui apparaissent sur les contenus soumis à l’analyse de ce logiciel. L’entreprise annonce qu’au lieu de faire apparaître « homme » ou « femme », elle va simplement adosser l’étiquette « personne » aux images d’individus sur une photo. D’après Business Insider, les changements sont bel et bien effectifs…


D’après Google, la manœuvre se justifie par l’impossibilité de déduire le sexe d’un individu uniquement à partir de son apparence. Dans la même lancée, l’entreprise a cité ses règles d’éthique en matière d’intelligence artificielle qui stipulent que l’ajout d’étiquettes de genre est de nature à exacerber les préjugés injustes.

« Les algorithmes utilisés en intelligence artificielle et les jeux de données peuvent mettre en avant, renforcer ou réduire les préjugés injustes. Nous reconnaissons qu'il n'est pas toujours simple de distinguer les préjugés équitables des préjugés injustes et que cette distinction diffère selon les cultures et les sociétés. Nous chercherons à éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'appartenance ethnique, le sexe, la nationalité, le revenu, l'orientation sexuelle, les capacités et les croyances politiques ou religieuses », lit-on dans les règles d’éthique de l’entreprise en matière d’IA.

Avec la note d’information de Google c’est tout le débat sur la question de biais en matière d’intelligence artificielle qui est relancé. D’après un expert de Mozilla sur la question, la décision de Google est une très bonne chose.

« Chaque fois que vous procédez à la classification automatique des personnes, qu'il s'agisse de leur sexe ou de leur orientation sexuelle, vous devez décider des catégories que vous utilisez en premier lieu et cela vient avec son lot d'hypothèses. Le fait de classer les gens comme hommes ou femmes suppose que le sexe est binaire. Toute personne qui ne correspond pas à cette catégorie sera automatiquement mal classée. Il s’agit donc de plus que des préjugés car le sexe d'une personne ne peut pas être déduit de son apparence. Tout système d'IA qui adopte une telle approche se trompe de façon inévitable sur le sexe des personnes », souligne Frederike Kaltheuner de Mozilla.


D’après les retours de Business Insider, les premières réactions des développeurs commencent à tomber et ne vont pas toujours dans le sens d’applaudir la décision de Google.

« Je ne pense pas que le politiquement correct ait sa place dans les API. Si je peux identifier dans 99% des cas si quelqu'un est un homme ou une femme, alors un algorithme le peut aussi. Vous ne voulez pas le faire ? Les entreprises iront donc vers d'autres services », lit-on.

Source : BI

Et vous ?

Que pensez-vous du positionnement de Google ?
Est-ce la meilleure approche pour se défaire du problème de biais lié au genre en matière d’intelligence artificielle ?
Est-ce une approche que l’industrie de l’intelligence artificielle devrait reproduire ?

Voir aussi :

Google lance l'API Cloud Vision pour permettre aux développeurs d'intégrer la reconnaissance d'images dans leurs applications
TensorFlow Serving : un outil open source de Google pour faciliter la mise en production des modèles de machine learning

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de
https://www.developpez.com
Le 21/02/2020 à 10:42
"Personne" ? de quel droit Google se permet-il de me cataloguer en tant que tel alors que je peux être absolument tout ce que je veux ? Je me sens terriblement offensé.
(ceci est de l'humour absurde, merci)
6  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 21/02/2020 à 10:46
Citation Envoyé par Patrick Ruiz Voir le message

Que pensez-vous du positionnement de Google ?
Donc on peut laisser des ordinateurs conduirent des engins de plus d'une tonne aux milieux des rues, par contre on est pas capable de faire ce qu'un enfant de 2 ans sait faire :différencier un homme d'une femme.
C'est même plus du politiquement correcte, ca devient de l'inquisition. Pathétique.
5  1 
Avatar de Leruas
Membre actif https://www.developpez.com
Le 21/02/2020 à 17:38
Si on envoi une photo de pénis à Google Cloud Vision ça retourne "appareil génital masculin" ou "appareil génital d'une personne" ?
3  0 
Avatar de Mubelotix
Membre actif https://www.developpez.com
Le 21/02/2020 à 12:37
Pour un humain l'attribution d'un genre binaire à une personne est automatique et systématique. Peut importe si il peut se tromper. Quand on regarde quelqu'un on ne le considère pas comme une personne indéfinie mais comme un homme ou une femme. C'est même une information qui a souvent un très grande importance.
2  0 
Avatar de clorr
Membre actif https://www.developpez.com
Le 21/02/2020 à 13:50
On en revient au même débat que sur les voitures autonomes. Quand un humain catalogue une personne, et qu'il le fait correctement a 96%, il considère qu'il le fait de manière infaillible et n'en a, en général, rien à faire de se tromper (quand bien même il est déjà prêt à admettre s'être trompé). Quand c'est un algorithme qui le fait, à la moindre erreur, cela fait le tour de la toile.

Bien sûr que Google sait le faire a 96%, voire plus, de manière juste, mais quand on s'appelle Google et qu'on fait du traitement automatique de millions d'images, et que ce traitement peut avoir des conséquences insoupçonnées, peut on vraiment se permettre de n'en avoir rien à faire des conséquences ?

Ca gêne peut être certains développeurs/entreprises qui voulaient baser leurs programmes sur le genre, mais en soi, je pense que c'est plutôt une décision responsable (même si on sait tous que Google n'est pas forcément un ange à tous les niveaux...).
0  2