IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'entreprise Axon vend une IA qui transforme les enregistrements des caméras corporelles en rapports de police,
« une sorte de cauchemar », d'après un responsable de l'EFF qui évoque les biais

Le , par Patrick Ruiz

7PARTAGES

5  0 
Axon affirme que son intelligence artificielle permettra à un plus grand nombre de policiers de quitter le bureau et de se rendre dans les rues. Les détracteurs sont pour leur part d’avis que le système est susceptible de rendre les policiers paresseux et d’introduire des erreurs dans des preuves cruciales. Les débats portent en sus sur les avantages et les inconvénients de la mise à contribution de la transcription audio vers texte pour les besoins des forces de l’ordre.

Les policiers américains font de plus en plus appel à l'intelligence artificielle pour les aider dans leur travail, qu'il s'agisse de modèles d'intelligence artificielle qui analysent les schémas criminels ou de drones capables de voler tout seuls. Désormais, une IA basée sur GPT-4 peut effectuer l'une de leurs tâches les moins attrayantes : la rédaction de rapports.

Axon, l'entreprise de 22 milliards de dollars connue pour la fabrication de l'arme électrique Taser, est derrière ce nouvel outil appelé Draft One. Il sert à la transcription automatique de l'audio des caméras corporelles en rapports de police. Axon affirme qu'un des premiers testeurs de l'outil, le service de police de Fort Collins Colorado, a constaté une diminution de 82 % du temps passé à rédiger des rapports. « Si un agent passe la moitié de sa journée à rédiger des rapports et que nous pouvons réduire ce temps de moitié, nous avons la possibilité de libérer 25 % du temps de l'agent pour qu'il puisse à nouveau faire son travail de policier », déclare un responsable de l’entreprise.

Ces rapports sont utilisés comme éléments de preuve dans les procès pénaux, et les critiques s'inquiètent du fait que l'utilisation de l'IA pourrait mettre les gens en danger en dépendant de modèles de langage connus pour leurs "hallucinations" ou leurs inventions, ainsi que pour leurs préjugés raciaux, qu'ils soient manifestes ou inconscients.

« C'est une sorte de cauchemar. La police, qui n'est pas spécialisée dans l'intelligence artificielle et qui ne le sera pas non plus dans la reconnaissance des problèmes liés à l'IA, va utiliser ces systèmes pour générer des contenus susceptibles d'affecter des millions de personnes lors de procès pénaux ? », s’inquiète Dave Maass, directeur des enquêtes sur les technologies de surveillance à l'Electronic Frontier Foundation. Axon se veut néanmoins rassurante en soulignant que les policiers peuvent effectueront la revue des documents générés par l’intelligence artificielle pour s'assurer de leur exactitude.

Les critiques recommandent aux policiers de ne pas utiliser l'intelligence artificielle pour rédiger des rapports sur des incidents aussi graves qu'une fusillade, où des informations vitales pourraient être omises : « Une fusillade impliquant un officier est probablement un scénario où elle ne serait pas utilisée, et je déconseillerais probablement aux gens de l'utiliser, simplement parce qu'il y a tellement de complexité, les enjeux sont tellement élevés ».
L'outil sera accompagné d'une piste d'audit répertoriant toutes les actions effectuées par un utilisateur, afin que les services de police puissent s'assurer qu'un rapport a été examiné et validé. Toutes les informations sont stockées et traitées sur les serveurs Microsoft Azure.

Certains responsables des forces de l'ordre sont d'avis que si la police devait utiliser l'intelligence artificielle pour rédiger des rapports, les services auraient besoin de politiques, de procédures et d'une supervision clairement définies. « Il faut s'assurer que le processus d'audit est réel. Si ces règles sont respectées, l'IA pourrait faire gagner du temps », indique un ex directeur de la police de Boston.

Source : Axon

Et vous ?

Pour ou contre l’utilisation de tels dispositifs par les forces de l’ordre ?

Voir aussi :

La reconnaissance faciale comme méthode de sécurité est inutile pour 4 smartphones sur 10 d'après une étude

La reconnaissance faciale du Samsung Galaxy S10 peut facilement être trompée par une photo ou une vidéo du propriétaire du téléphone

Le propriétaire d'un téléphone Android trouve accidentellement un moyen de contourner l'écran de verrouillage, et reçoit 70 000 dollars de Google pour avoir signalé le problème

Une tête imprimée en 3D a pu tromper le système de reconnaissance faciale de plusieurs smartphones Android populaires lors d'un test

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 14/12/2024 à 20:20
J’ai demandé son avis à chatGPT, et voici sa réponse :

Dans des contextes sensibles comme la rédaction de rapports de police, il serait imprudent de me confier une responsabilité complète sans supervision humaine. Mes limites incluent :

  1. Biais : Mes réponses peuvent refléter les biais des données sur lesquelles je suis entraînée.
  2. Erreurs ou hallucinations : Je peux produire des informations incorrectes ou inventées.
  3. Manque de transparence : Mon processus de génération de contenu est difficile à expliquer en détail.

Je peux être utile comme outil d’assistance, mais je ne devrais pas remplacer un jugement humain éclairé, surtout dans des domaines critiques pour la justice et les droits civils.

0  0