Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

IBM annonce qu'il se retire du marché de la reconnaissance faciale étant donné qu'elle sert au profilage racial
Et appelle à une réforme de la police

Le , par Stéphane le calme

25PARTAGES

5  0 
Dans une lettre de son nouveau PDG Arvind Krishna, International Business Machines Corp (IBM) a révélé lundi qu'il n'offrirait plus de logiciel de reconnaissance faciale ou d'analyse dans une lettre au Congrès appelant à de nouveaux efforts pour poursuivre la justice et l'équité raciale.

La société cessera d'offrir des logiciels de reconnaissance faciale et s'oppose à toute utilisation de ces technologies à des fins de surveillance de masse et de profilage racial, a déclaré Krishna, qui a également appelé à de nouvelles règles fédérales pour tenir la police plus responsable des fautes.

Dans la lettre, le PDG explique qu’IBM aimerait travailler avec le Congrès dans la poursuite de la justice et de l'équité raciale, concentrée initialement dans trois domaines politiques clés: la réforme de la police, l'utilisation responsable de la technologie, et l'élargissement des compétences et des opportunités éducatives.

Voici les suggestions de l’entreprise :
  • Réforme de la police - les nouvelles règles fédérales devraient tenir la police plus responsable des fautes : le Congrès devrait soumettre davantage de cas d'inconduite policière à la compétence du tribunal fédéral et apporter des modifications à la doctrine de l'immunité qualifiée qui empêche les individus de demander des dommages-intérêts lorsque la police viole leurs droits constitutionnels. Le Congrès devrait également établir un registre fédéral des fautes commises par la police et adopter des mesures pour encourager ou obliger les États et les localités à revoir et mettre à jour les politiques de recours à la force. « Nous exhortons également le Congrès à examiner une législation telle que la Walter Scott Notification Act, parrainée par le sénateur Tim Scott de Caroline du Sud, qui obligerait les États recevant un financement fédéral à communiquer plus de détails sur l'utilisation de la force meurtrière par les agents des forces de l'ordre au Département de Justice afin qu'une image précise de ces incidents soit disponible pour examen et analyse par le public ».
  • Politiques technologiques responsables - la technologie peut accroître la transparence et aider la police à protéger les communautés, mais ne doit pas promouvoir la discrimination ou l'injustice raciale : IBM ne propose plus de logiciel de reconnaissance ou d'analyse faciale IBM à usage général. IBM s'oppose fermement et ne tolérera pas l'utilisation de toute technologie, y compris la technologie de reconnaissance faciale offerte par d'autres fournisseurs, pour la surveillance de masse, le profilage racial, les violations des droits et libertés fondamentaux de la personne, ou tout autre objectif non conforme à nos valeurs et principes de confiance et transparence. « Nous pensons que le moment est venu d'entamer un dialogue national sur l'opportunité et la manière dont la technologie de reconnaissance faciale devrait être utilisée par les autorités nationales chargées de l'application des lois ».

    Et d’indiquer que l'intelligence artificielle est un outil puissant qui peut aider les forces de l'ordre à assurer la sécurité des citoyens. Mais les fournisseurs et les utilisateurs des systèmes d’IA ont la responsabilité partagée de s'assurer que l’IA est testée pour voir si les résultats peuvent être biaisés, en particulier lorsqu'elle est utilisée par les forces de l’ordre, et que ces tests de biais sont audités et signalés.

    Enfin, la politique nationale devrait également encourager et faire progresser les utilisations de la technologie qui apportent plus de transparence et de responsabilité aux services de police, comme les caméras corporelles et les techniques modernes d'analyse des données.
  • Élargir les possibilités - la formation et l'éducation aux compétences en demande sont essentielles pour élargir les possibilités économiques des communautés de couleur : « Nous devons créer des voies plus ouvertes et équitables pour que tous les Américains acquièrent des compétences et une formation commercialisables, et le besoin est particulièrement aigu dans les communautés de couleur. Chez IBM, nous constatons une demande urgente pour ce que nous appelons des ‘nouveaux emplois de col’, qui nécessitent des compétences spécialisées, mais pas nécessairement un diplôme universitaire traditionnel de 4 ans. De tels emplois se trouvent encore aujourd'hui dans des domaines à croissance rapide, de la cybersécurité au cloud computing ».



La décision d’IBM intervient alors que les États-Unis sont aux prises avec des manifestations à l'échelle nationale contre la mort d'un Afro-Américain, George Floyd, des suites de brutalité de la police à Minneapolis, et les appels croissants pour une réforme de la police.

C’est dans ce contexte qu’IBM s’est prononcé sur cette technologie qui sert à de retrouver et à identifier des visages sur la voie publique, en croisant les images filmées avec une base de données ad hoc. Mais il arrive que ces systèmes fonctionnent imparfaitement et peuvent conduire à des discriminations ou à des erreurs. C’est ce qu’ont tenté de montré des chercheurs du MIT avec une expérience qu’ils ont menée en 2018 : tenter de créer la première IA psychopathe pour illustrer le risque de biais des IA, non pas en raison des algorithmes, mais des lots de données utilisées.

Des représentants du gouvernement de tout le pays ont proposé des réformes pour lutter contre la brutalité policière et l'injustice raciale afin de renforcer la surveillance des organismes chargés de l'application des lois.

Krishna, l'architecte clé de l'acquisition de Red Hat pour 34 milliards de dollars par IBM l'an dernier, a repris le poste de directeur général en avril.

CNBC a indiqué que les activités de reconnaissance faciale d'IBM n'avaient pas généré de revenus importants. Une personne familière avec l'affaire a déclaré à Reuters que les décisions concernant les produits de reconnaissance faciale avaient été prises sur une période de plusieurs mois. La société ne commercialisera plus, ne vendra ni ne mettra à jour les produits, mais soutiendra les clients au besoin, a ajouté la personne.

IBM ne développe, ne crée, ne recherche ni ne vend plus de produits de reconnaissance faciale dans l'interface de programmation d'applications ou sous toute autre forme. La technologie visuelle d'IBM sera limitée uniquement à la détection visuelle d'objets, et non à l'analyse et à l'identification faciales, a ajouté la personne.

Source : IBM, Reuters

Et vous ?

Que pensez-vous de cette décision ?

Voir aussi :

Des chercheurs du MIT créent la première intelligence artificielle psychopathe, pour illustrer le problème de biais des données nourries aux IA
L'IA peut-elle prédire qu'un tiers sera criminel sur la base d'une photo ? Oui, avec une précision de 80 % et sans biais racial, selon une étude retirée d'Internet en raison de la controverse
IBM retire ses prévisions pour 2020 à cause des incertitudes liées au covid-19 et décide de continuer à verser les dividendes aux actionnaires
Le Vatican, IBM et Microsoft ensemble pour appeler à une réglementation de la reconnaissance faciale et de façon générale, à une régulation de l'IA pour le bien de l'humanité
Ginni Rometty va quitter son poste de PDG chez IBM pour être remplacée par Arvind Krishna, actuellement vice-président senior du cloud d'IBM qui a dirigé le rachat de Red Hat

Une erreur dans cette actualité ? Signalez-le nous !