IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Quand l'IA menace l'intégrité de la justice : les policiers américains utilisent l'IA pour rédiger des rapports de police et l'ACLU n'est pas contente,
Elle soulève des risques en matière de transparence

Le , par Mathis Lucas

103PARTAGES

4  0 
La popularité croissante des outils d'IA auprès de la police soulève de profondes préoccupations chez les groupes de défense des droits de l'homme. En dépit des problèmes liés aux logiciels de reconnaissance faciale basée sur l'IA déjà utilisés pour identifier les suspects, la technologie est désormais employée pour rédiger les rapports de police. L'ACLU dénonce un cas d'utilisation dangereux et affirme que « les rapports de police générés par l'IA risquent d'exacerber les problèmes existants en matière d'application de la loi et d'en créer de nouveaux ». L'organisation ajoute que cette pratique soulève des inquiétudes en matière de transparence et de partialité.

L'ACLU dénonce l'utilisation de l'IA pour la rédaction de rapports de police

Profitant du battage médiatique intense autour de l'IA, la société américaine Axon a lancé « Draft One », un outil qui utilise l'IA pour transformer les enregistrements des caméras corporelles en rapports de police. Axon affirme que l'un des premiers testeurs de l'outil, le service de police de Fort Collins Colorado, a constaté une diminution de 82 % du temps passé à rédiger des rapports. Mais beaucoup craignent un gain de temps au détriment de la transparence.


L'ACLU (American Civil Liberties Union) a publié cette semaine un rapport détaillant ses préoccupations concernant Draft One. Dans son article, l'ACLU a exprimé ses craintes quant à la fiabilité des rapports de police générés par Draft One, qui selon elle, pourraient souffrir d'un manque de transparence et d'impartialité. Elle ne croit guère que Draft One évitera d'entraîner des violations potentielles des droits civils et encore moins, des problèmes de liberté civile.

« Les rapports de police jouent un rôle crucial dans notre système judiciaire. Les inquiétudes portent notamment sur le manque de fiabilité et la nature partiale de l'IA, les problèmes de preuve et de mémoire lorsque les officiers ont recours à cette technologie, et les problèmes de transparence », a déclaré Jay Stanley, analyste principal de la politique de l'ACLU en matière de discours, de vie privée et de technologie. Jay Stanley est l'auteur du rapport de l'ACLU.

« En fin de compte, nous ne pensons pas que les services de police devraient utiliser cette technologie », a conclu Jay Stanley. Cependant, plusieurs services de police à travers les États-Unis ont progressivement testé des programmes d'IA au cours de l'année dernière, y compris Draft One de la société Axon.

Ce nombre est en augmentation, les villes américaines présentant les fonctions d'IA générative comme une solution aux contraintes de budget et de personnel. Des experts ont critiqué la mise en œuvre de cette technologie, citant le rôle essentiel que jouent les rapports de police dans la prise de décision judiciaire.

L'ACLU expose quatre grands domaines de préoccupation liés à la pratique

Si nous ne pouvons même pas faire confiance à l'IA pour rédiger quelque chose d'aussi simple qu'une nouvelle ou un rapport de bogue, comment pouvons-nous lui faire confiance pour effectuer un travail de police décent ? C'est l'une des principales inquiétudes soulevées par l'ACLU, d'autant plus que les rapports sont compilés à partir d'enregistrements de caméras corporelles qui sont souvent de mauvaise qualité et difficiles à entendre clairement.

L'ACLU expose quatre grands domaines de préoccupation. Elle souligne l'incertitude alimentée par les biais et les hallucinations inhérents à la technologie elle-même, et s'interroge sur la transparence de ces processus vis-à-vis du grand public, sans parler des implications en matière de confidentialité des données :

Des problèmes liés à la technologie elle-même

Selon l'ACLU, l'IA est biaisée, peu fiable et encline à inventer des faits. Étant donné que les grands modèles de langage (LLM) sont formés sur d'énormes quantités de données provenant de l'ensemble du Web, ils absorbent inévitablement le racisme, le sexisme et les autres préjugés qui imprègnent notre culture.

Par conséquent, l'ACLU affirme que même si un programme d'IA ne commet pas d'erreurs explicites ou ne présente pas de préjugés évidents, il peut toujours tourner les choses de manière subtile, sans que l'officier de police chargé de le superviser s'en aperçoive. Ce qui pourrait avoir des conséquences désastreuses.

Craintes concernant les preuves et la mémoire

Selon l'ACLU, la mémoire humaine - contrairement aux enregistrements vidéo - est extrêmement malléable ; des informations ultérieures sur un événement peuvent littéralement...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 14/12/2024 à 20:20
J’ai demandé son avis à chatGPT, et voici sa réponse :

Dans des contextes sensibles comme la rédaction de rapports de police, il serait imprudent de me confier une responsabilité complète sans supervision humaine. Mes limites incluent :

  1. Biais : Mes réponses peuvent refléter les biais des données sur lesquelles je suis entraînée.
  2. Erreurs ou hallucinations : Je peux produire des informations incorrectes ou inventées.
  3. Manque de transparence : Mon processus de génération de contenu est difficile à expliquer en détail.

Je peux être utile comme outil d’assistance, mais je ne devrais pas remplacer un jugement humain éclairé, surtout dans des domaines critiques pour la justice et les droits civils.

0  0 
Avatar de
https://www.developpez.com
Le 16/07/2025 à 16:32
Judge Dread
0  0