
La première série de services de l'entreprise comprendra des cours de formation sur des sujets tels que la manière de repérer les problèmes éthiques dans les systèmes d'intelligence artificielle, de développer et de mettre en œuvre des directives éthiques en matière d’IA. Le contenu serait similaire à celui proposé aux employés de la firme de Mountain View. En sus, Google prévoit d’offrir des services d’examen et d’audit, mais ce sera pour plus tard. Tracy Frey, directrice de la stratégie produit et des opérations de Cloud AI chez Google, confirme.
L’initiative en cours de gestation chez le géant de la filière technologique fait suite à la publication il y a plus de deux ans d’un guide éthique en matière d’intelligence artificielle. L’entreprise répondait alors aux protestations contre sa participation à un projet du Pentagone. L'adhésion à ces principes avait ralenti le lancement des produits de Google, ce, parfois avec des pertes de revenus à la clé. Par exemple, en 2019, Google a lancé un service de reconnaissance faciale limité aux célébrités. L'examen éthique et le processus de conception de ce dernier ont pris 18 mois. Le processus d'examen a nécessité du temps, notamment, pour résoudre un problème de données fournies à l’IA lors de la phase d’entraînement, ce qui a entraîné une baisse de précision dans la reconnaissance des acteurs masculins noirs. En conséquence, au moment où Google lançait son service, celui d'Amazon était ouvert à tous depuis plus de deux ans.
Google est cité par un article de l’Union américaine des libertés civiles (UCLA) comme l’entreprise dont le moteur de recherche (et d’autres produits) alimenté à l’intelligence artificielle perpétue le racisme basé sur la discrimination en lien avec les biais de données. C’est aussi la société que l’on pointe du doigt pour n’avoir pas pu trouver de solution au comportement de son algorithme qui étiquetait les noirs comme des gorilles et qui empêchait donc Google Photos et d'autres de ses produits d'étiqueter une image comme étant un gorille, un chimpanzé ou un singe, même lorsqu'il s'agissait de photos des primates eux-mêmes.
Après l'annonce d'IBM de cesser de proposer des logiciels de reconnaissance faciale en réponse au mouvement Black Lives Matter, l'entreprise a été suivie par Amazon et son moratoire sur l'utilisation par la police de son système de reconnaissance faciale controversé – Rekognition. Microsoft aussi avait pris position en refusant de vendre cette technologie aux services de police en l'absence de loi. Google, cependant, a brillé par son absence lors de ces rendez-vous, malgré la demande de plus de 1500 de ses employés de cesser de vendre sa technologie aux services de police.
Autre exemple : Google a travaillé sur Project Dragonfly – un moteur de recherche spécifique à la Chine - qui devait s’aligner sur les règles de censure chinoises. L’entreprise n'a confirmé l'arrêt du projet qu'en juillet 2019, après avoir été critiquée par ses propres employés et des organisations mondiales de défense des droits comme Amnesty International.
Il sera donc intéressant de voir comment la firme de Mountain View parviendra à drainer du monde sur son service d’éthique en matière d’intelligence artificielle et apporte réponse à des problématiques comme celle du dilemme du tramway. Les chercheurs du MIT Media Lab se sont inspirés de ce problème classique pour tester neuf différentes situations : la voiture autonome en passe de faire un accident devrait-elle épargner en priorité les humains plutôt que les animaux de compagnie, les passagers au lieu des piétons, les femmes au lieu des hommes, les jeunes plutôt que les vieux, les personnes ayant un haut statut social au lieu de celles ayant un statut inférieur, les personnes respectant la loi plutôt que les criminels, les personnes mal portantes au lieu de celles en bonne santé ? La voiture devrait-elle dévier (agir) ou ne rien faire ou encore chercher à épargner le plus de vies possible ?
En tout cas, après les SaaS et autres PaaS, l’initiative de Google aura au moins eu l’initiative de lancer un nouveau sigle – EaaS pour Ethical AI as as Sarvice.
Source : Tracy Pizzo Frey
Et vous ?

Voir aussi :



