L'intelligence artificielle et l'analytics touchent un nombre croissant de secteurs et le domaine juridique n'en est pas épargné. Outre les tentatives de remplacer les juges par des algorithmes ou de laisser à ces derniers le soin de décider du sort de certains criminels, l'IA est également utilisée en justice prédictive.
En effet, dans certains pays, y compris en France, des cabinets d'avocats font appel à des entreprises qui vantent des technologies juridiques capables d'analyser des millions de décisions de justice à la seconde, ce qui permet par exemple d'évaluer la probabilité de succès d'une action contentieuse. Mais ces entreprises technologiques du secteur juridique construisent également des modèles de comportement des juges sur certaines questions ou face à différents arguments juridiques. Avec de telles informations, les cabinets d'avocats peuvent optimiser leurs stratégies devant les tribunaux.
Aux États-Unis et au Royaume-Uni, les juges semblent avoir accepté le fait que des entreprises technologiques analysent leurs décisions de manière extrêmement détaillée et créent ensuite des modèles de leurs comportements. Mais en France, les juges n'acceptent pas ces pratiques. Dans une mesure qui vise à limiter le secteur émergent de l’analyse et de la prédiction de l'issue des contentieux, le gouvernement français a en effet interdit la publication d’informations statistiques sur les décisions des juges. C'est ce que stipule un passage de l'article 33 de la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice :
« Les données d'identité des magistrats et des membres du greffe ne peuvent faire l'objet d'une réutilisation ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. » Toute personne qui enfreint la nouvelle règle peut encourir jusqu'à cinq ans de prison, ce qui semble être en ce moment le plus dur exemple de réglementation de technologie juridique dans le monde.
Cette nouvelle loi vise à empêcher quiconque de révéler le comportement des juges dans les décisions de justice, mais ce sont visiblement les sociétés de technologie juridique spécialisées dans l’analyse et la prédiction de l'issue des litiges qui sont le plus ciblées.
La nouvelle loi résulte directement d'un effort antérieur visant à rendre les décisions de justice facilement accessibles au grand public, pour plus de transparence dans le secteur. Mais cet effort a connu des oppositions à cause du besoin général d'anonymat ou encore de la crainte parmi les juges que leurs décisions révèlent un écart trop important par rapport aux normes attendues du droit civil. Cette loi serait donc un compromis avec le gouvernement : « les noms des juges ne devraient pas être retirés (à quelques exceptions près) des décisions de justice rendues publiques, mais ils ne pourront pas non plus être utilisés à des fins statistiques », explique un expert français de technologie juridique.
Il est clair qu'il doit y avoir des limites aux données que les sociétés de technologie de l'information peuvent être autorisées à collecter sur des particuliers. Mais pour les critiques de cette nouvelle loi, les décisions des juges rendues publiques sont des « données publiques » et leur utilisation ne devrait pas être restreinte de cette manière. Ce serait en effet comme donner à quelqu'un l’accès à une bibliothèque publique, mais lui interdire de lire certains livres qui se trouvent juste sur l’étagère, à la vue de tous. Pour eux, si une affaire juridique relève déjà du domaine public, toute personne qui le souhaite devrait avoir le droit de procéder à une analyse statistique des données qui en découlent afin de répondre à des questions qu'elle se pose. Après tout, comment une société peut-elle dicter comment les citoyens sont autorisés à utiliser des données et à les interpréter si ces données ont déjà été rendues disponibles au public par un organisme public tel qu'un tribunal ?
Source : Legifrance
Que pensez-vous de cette loi ?
Selon vous, faut-il pénaliser l'analyse des décisions de justice à des fins de prédiction des comportements des juges ou de l'issue des contentieux ?
Ces technologies de justice prédictive constituent-elles une menace pour la société ?
Voir aussi :
Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort
L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ? Oui, selon un expert
Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques
Une intelligence artificielle peut-elle être un juge équitable dans un tribunal ? L'Estonie pense que oui
La technologie de reconnaissance faciale d'Amazon identifie à tort 28 membres du Congrès US comme des criminels, quels dangers pour les Américains ?
La France bannit les IA de prédiction des comportements des juges
Les technologies de justice prédictive sont-elles une menace pour la société ?
La France bannit les IA de prédiction des comportements des juges
Les technologies de justice prédictive sont-elles une menace pour la société ?
Le , par Michael Guilloux
Une erreur dans cette actualité ? Signalez-nous-la !