IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les outils d'IA sont utilisés par la police qui « ne comprend pas comment ces technologies fonctionnent »,
Selon une étude de l'Université d'État de Caroline du Nord

Le , par Bruno

5PARTAGES

4  0 
Une étude de l’Université d’État de Caroline du Nord a exploré la connaissance et l’attitude des policiers envers l’IA. L’étude a montré que les policiers n’étaient pas bien informés sur les technologies d’IA qu’ils utilisaient, comme la reconnaissance faciale et la détection des coups de feu, mais qu’ils les appréciaient pour leur efficacité. L’étude a aussi révélé que les policiers craignaient que l’IA puisse affecter la confiance entre eux et les citoyens.

L'intelligence artificielle révolutionne déjà les forces de l'ordre, qui ont intégré des technologies de pointe dans leurs enquêtes, mais « la société a l'obligation morale d'en atténuer les conséquences néfastes », selon un rapport de l'université de l'État de Caroline du Nord publié en février. L'intelligence artificielle n'en est qu'à ses débuts, comme l'affirment certains experts, mais les services répressifs intègrent déjà dans leurs enquêtes la police prédictive, la reconnaissance faciale et les technologies conçues pour détecter les coups de feu.


Ce rapport se fonde sur 20 entretiens semi-structurés menés auprès de professionnels de la police en Caroline du Nord et sur l'impact de l'IA sur les relations entre les communautés et les juridictions policières. « Nous avons constaté que les participants à l'étude n'étaient pas familiarisés avec l'IA ou avec les limites de ses technologies », a déclaré Jim Brunet, coauteur de l'étude et directeur de la Public Safety Leadership Initiative de l'université d'État de Caroline du Nord. « Cela concernait des technologies d'IA que les participants avaient utilisées dans le cadre de leur travail, telles que les technologies de reconnaissance faciale et de détection des coups de feu. Cependant, les participants à l'étude ont exprimé leur soutien à ces outils, qu'ils considèrent comme utiles pour les forces de l'ordre ».

L'intégration de l’IA dans l'application de la loi

L'intégration des technologies d'intelligence artificielle dans l'application de la loi est devenue une préoccupation de la politique contemporaine et du discours public. Les données suggèrent que les policiers maintiennent que l'IA joue un rôle limité dans le maintien de l'ordre, mais croient que les technologies continueront à se développer, améliorant la sécurité publique et augmentant la capacité de maintien de l'ordre. Inversement, les policiers estiment que l'IA ne renforcera pas nécessairement la confiance entre la police et la communauté, citant des préoccupations éthiques et la possibilité d'empiéter sur les droits civils.

On peut donc affirmer que la tendance à intégrer les technologies de l'IA dans l'application de la loi n'est pas sans risque. L'élaboration des politiques, guidée par un consensus public et une discussion collaborative avec les professionnels de l'application de la loi, doit viser à promouvoir la responsabilité par l'application d'une conception responsable de l'IA dans le maintien de l'ordre, avec pour objectif final de fournir des avantages sociétaux et d'atténuer les dommages subis par la population. La société a l'obligation morale d'atténuer les conséquences néfastes de l'intégration complète des technologies de l'IA dans le maintien de l'ordre.

« Les forces de l'ordre ont un rôle crucial à jouer dans la mise en œuvre des politiques publiques liées aux technologies de l'IA », explique Veljko Dubljević, auteur correspondant de l'étude et professeur agrégé de science, technologie et société à l'Université d'État de Caroline du Nord.

« Par exemple, les agents devront savoir comment procéder s'ils arrêtent un véhicule conduit de manière autonome pour une infraction au code de la route. D'ailleurs, ils devront savoir comment arrêter un véhicule conduit de manière autonome. En raison de leur rôle dans le maintien de l'ordre public, il est important que les forces de l'ordre soient associées à l'élaboration de ces politiques.

« En outre, il existe un certain nombre de technologies alimentées par l'IA qui sont déjà utilisées par les forces de l'ordre et qui sont conçues pour les aider à prévenir la criminalité et à y répondre », explique Ronald Dempsey, premier auteur de l'étude et ancien étudiant diplômé de NC State. "Ces technologies vont de la reconnaissance faciale aux technologies conçues pour détecter les coups de feu et avertir les services de police concernés.

« Cependant, notre étude suggère que de nombreux agents ne comprennent pas le fonctionnement de ces technologies, ce qui rend difficile, voire impossible, l'appréciation de leurs limites et des risques éthiques qu'elles comportent. Cela peut poser des problèmes importants tant pour les forces de l'ordre que pour le public ». « Comprendre ce que les forces de l'ordre considèrent comme des caractéristiques souhaitables chez les agents est précieux, car ces caractéristiques peuvent éclairer l'élaboration de lignes directrices de conception responsables pour les technologies d'IA que les forces de l'ordre utiliseront », explique Dempsey.

Les participants à l'étude ont également exprimé leur inquiétude quant à l'avenir des véhicules autonomes et aux défis qu'ils pourraient poser aux forces de l'ordre. Ils ont déclaré qu'ils accueilleraient favorablement l'utilisation publique de véhicules autonomes si cela permettait de réduire les accidents de voiture. « Plus précisément, les participants ont accueilli favorablement l'idée de passer moins de temps à répondre aux accidents de voiture, ce qui leur permettrait de se concentrer sur la lutte contre la criminalité », explique Dubljević.

« Il y a toujours des dangers lorsque les forces de l'ordre adoptent des technologies qui n'ont pas été développées en pensant aux forces de l'ordre », déclare Brunet. « Cela s'applique certainement aux technologies d'IA telles que la reconnaissance faciale. Il est donc essentiel que les agents des services répressifs soient formés aux aspects éthiques de l'utilisation de ces technologies. Par exemple, l'endroit où un organisme d'application de la loi choisit de déployer des outils d'IA aura une incidence sur les parties du public qui feront l'objet d'un examen plus approfondi ».

« Il est également important de comprendre que les outils d'IA ne sont pas infaillibles », déclare Dubljević. « L'IA est sujette à des limitations. Et si les responsables de l'application de la loi ne comprennent pas ces limites, ils risquent d'accorder plus de valeur à l'IA que ce qui est justifié - ce qui peut poser des défis éthiques en soi. »
Pour cette étude, les chercheurs ont mené des entretiens approfondis avec 20 professionnels de l'application de la loi travaillant en Caroline du Nord. Les entretiens ont porté sur une série de questions, notamment sur les valeurs et les qualités que les participants à l'étude considéraient comme essentielles pour les agents des services répressifs.

Bien qu'il n'y ait pas eu de consensus entre la majorité des participants à l'étude, plusieurs caractéristiques sont apparues à plusieurs reprises comme des qualités importantes pour un professionnel de l'application de la loi, l'intégrité, l'honnêteté et l'empathie étant citées le plus souvent.

Source : Veljko Dubljević, Jim Brunet, Matt Shipman, de l’Université d’État de Caroline du Nord

Et vous ?

Les conclusions de l'étude de l’Université d’État de Caroline du Nord sont-elles pertinente ?

Quels sont les risques et les biais potentiels liés à l’utilisation de l’IA pour la surveillance, la reconnaissance faciale, la prédiction du crime ou la prise de décision judiciaire ?

Quels peuvent être les impacts de l’IA sur les droits fondamentaux, la vie privée, la non-discrimination et la confiance du public envers les forces de l’ordre ?

Selon vous, quels sont les cadres juridiques et éthiques existants ou à développer pour réguler et contrôler l’utilisation de l’IA par les forces de l’ordre ?

Voir aussi :

La course à l'IA s'intensifie : Google annonce PaLM 2, sa réponse à GPT-4, Selon Google, le PaLM 2 pourrait coder, traduire et « raisonner » d'une manière plus performante que le GPT-4

« La loi européenne sur l'IA arrive, cette fois-ci pour de vrai probablement », estime Wolfgang Hauptfleisch, architecte logiciel, deux commissions ont adopté un projet par 84 voix pour, 7 contre

Le plus grand risque de l'IA n'est pas la « conscience », mais les entreprises qui la contrôlent, selon la chercheuse Meredith Whittaker

Les étudiants sont favorables aux outils d'IA tels que ChatGPT dans l'enseignement, plus d'un tiers les utilisent, mais 62 % pensent que recourir à ces outils lors des examens est une forme de triche

Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA, les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright

Une erreur dans cette actualité ? Signalez-nous-la !