Le rapport note que :
« Les informations personnelles sont le "carburant" qui alimente l'IA. Il est bien reconnu que l’IA présente des risques particuliers pour le contrôle des individus sur leurs propres informations personnelles et le droit à la vie privée. Des données personnelles apparemment inoffensives peuvent être utilisées, en particulier dans un système alimenté par l'IA, pour obtenir des informations sur un individu, y compris sur des sujets sensibles.
« L'utilisation de l'IA dans la technologie biométrique, et en particulier certaines formes de reconnaissance faciale, a suscité une préoccupation croissante du public et des experts.
« La technologie biométrique consiste à utiliser une ou plusieurs caractéristiques physiques ou biologiques d’un individu pour identifier cette personne ou pour discerner d’autres choses à son sujet. Ce domaine n'est pas nouveau : les empreintes digitales, par exemple, sont utilisées depuis plus d'un siècle pour identifier les personnes. Cependant, la technologie biométrique a été suralimentée par l'IA, et en particulier par de nouvelles capacités d'analyse de grandes sources de données.
« Actuellement, la technologie biométrique peut identifier les personnes en se référant à leur visage, leurs yeux, leur matériel génétique ou ADN et une myriade d'autres caractéristiques physiques. La technologie peut être utilisée pour vérifier l’identité d’une personne ou pour identifier une personne appartenant à un groupe plus large. Il y a également des tentatives d'utiliser la technologie pour obtenir d'autres informations sur les gens, comme leur humeur ou leur personnalité.
« Cela affecte nécessairement la vie privée des individus et peut alimenter une surveillance nuisible. En outre, certaines technologies biométriques sont sujettes à des taux d'erreur élevés, en particulier pour certains groupes raciaux et autres. Lorsque ces technologies biométriques sont utilisées dans la prise de décision à enjeux élevés, comme la police, les erreurs d'identification peuvent augmenter le risque d'injustice et d'autres violations des droits de l'homme ».
En conséquence, la Commission recommande une réforme de la législation sur la protection de la vie privée pour se protéger contre les « dommages les plus graves associés à la technologie biométrique ». « La loi australienne devrait fournir des protections des droits de l'homme plus fortes, plus claires et plus ciblées concernant le développement et l'utilisation des technologies biométriques, y compris la reconnaissance faciale », lit-on dans le rapport.
« Tant que ces protections ne seront pas en place, la Commission recommande un moratoire sur l'utilisation des technologies biométriques, y compris la reconnaissance faciale, dans les zones à haut risque ».
La législation, a-t-elle déclaré, devrait expressément protéger les droits de l'homme; s'appliquent à l'utilisation de cette technologie dans la prise de décision qui a un effet juridique, ou tout aussi significatif, pour les individus, ou là où il y a un risque élevé pour les droits de l'homme, comme le maintien de l'ordre et l'application de la loi; et être développé grâce à des consultations approfondies avec la communauté, l'industrie et des organes d'experts tels que l'AHRC (Australian Human Rights Commission) et le Bureau du Commissaire australien à l'information (OAIC).
« À ce jour, la législation existante ne s'est pas avérée être un frein efficace à l'utilisation inappropriée de la technologie faciale et d'autres technologies biométriques », indique le rapport. « Sans réglementation efficace dans ce domaine, il semble probable que la confiance de la communauté dans la technologie sous-jacente se détériorera ».
La Commission a demandé le moratoire sur l'utilisation de la reconnaissance faciale et d'autres technologies biométriques dans la prise de décision se poursuivre jusqu'à ce que la législation soit en place. Le moratoire, cependant, ne s'appliquerait pas à toutes les utilisations de la technologie faciale et biométrique. « Une attention particulière devrait être accordée aux contextes à haut risque, tels que l'utilisation de la reconnaissance faciale dans les services de police, dans les écoles et dans d'autres domaines où les violations des droits de l'homme sont plus susceptibles de se produire », indique le rapport.
Il a également déclaré que le gouvernement devrait introduire une cause d'action statutaire en cas d'atteinte grave à la vie privée en matière de biométrie.
Appelant à un système de réglementation modernisé pour garantir que la prise de décision éclairée par l'IA soit « légale, transparente, explicable, responsable et sujette à une surveillance, un examen et une intervention humaine appropriés », la Commission a également demandé la création d'un nouveau commissaire à la sécurité de l'IA pour aider à diriger la transition de l'Australie vers un « monde alimenté par l'IA ».
Citons quelques-unes des recommandations de la Commission :
- Le gouvernement australien devrait introduire une législation exigeant que toute personne concernée soit informée de l'utilisation matérielle de l'intelligence artificielle pour prendre une décision administrative. Cette notification devrait inclure des informations sur la manière dont une personne concernée peut contester la décision.
- Le gouvernement australien devrait commander un audit de toute utilisation actuelle ou proposée de la prise de décision informée par l'IA par ou au nom des agences gouvernementales. Le commissaire à la sécurité de l'IA, ou un autre organe d'experts approprié, devrait mener cet audit.
- Le gouvernement australien ne devrait pas prendre de décisions administratives, y compris par le biais de l'automatisation ou de l'intelligence artificielle, si le décideur ne peut pas générer des raisons ou une explication technique pour une personne affectée.
- Les centres d’expertise, y compris le nouveau Australian Research Council Centre of Excellence for Automated Decision Making and Society, devraient donner la priorité à la recherche sur « l’explicabilité » de la prise de décision informée par l’IA.
Source : Commission australienne des droits de l'homme
Et vous ?
Quelle lecture en faites-vous ?
Voir aussi :
Un rapport révèle un désintérêt des chefs d'entreprise pour l'utilisation éthique et responsable de l'IA : seuls 20 % surveillent l'équité et l'éthique de leurs modèles en production
Une IA permet aux acteurs de prononcer des répliques parfaites dans des langues étrangères, cette technologie peut traduire le cinéma et la télévision sans perdre la performance originale d'un acteur
L'adoption de l'IA par les entreprises en Europe accélérée par la COVID, mais seules 27 % l'ont effectivement déployé dans le cadre de leurs activités, selon IBM