IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le juge en chef de la Cour suprême US met en garde contre les dangers de l'IA dans le travail judiciaire
Et note que c'est «toujours une mauvaise idée» de citer des affaires judiciaires inexistantes

Le , par Stéphane le calme

5PARTAGES

5  0 
L'intelligence artificielle représente une bénédiction mitigée pour le domaine juridique, a déclaré le juge en chef de la Cour suprême des États-Unis, John Roberts, dans un rapport de fin d'année publié dimanche, appelant à « la prudence et l'humilité » alors que l'évolution de la technologie transforme la façon dont les juges et les avocats accomplissent leur travail. Roberts a adopté un ton ambivalent dans son rapport de 13 pages. Il a déclaré que l'IA avait le potentiel d'améliorer l'accès à la justice pour les justiciables indigents, de révolutionner la recherche juridique et d'aider les tribunaux à résoudre les affaires plus rapidement et à moindre coût, tout en soulignant les problèmes de confidentialité et l'incapacité de la technologie actuelle à reproduire la discrétion humaine.

Le juge en chef de la Cour suprême, John Roberts, a discuté de l'IA et de son impact possible sur le système judiciaire dans un rapport de fin d'année publié ce week-end.

Roberts a reconnu que la technologie émergente allait probablement jouer un rôle accru dans le travail des avocats et des juges, mais il ne s’attendait pas à ce que les humains soient complètement remplacée de si tôt :

Les machines ne peuvent pas remplacer entièrement les acteurs clés du tribunal. Les juges, par exemple, mesurent la sincérité des déclarations d’un accusé lors de la détermination de la peine. La nuance compte*: beaucoup de choses peuvent dépendre d'une main tremblante, d'une voix tremblante, d'un changement d'inflexion, d'une goutte de sueur, d'un instant d'hésitation, d'une interruption fugace du contact visuel. Et la plupart des gens font encore plus confiance aux humains qu’aux machines pour percevoir et tirer les bonnes conclusions de ces indices.
Et de continuer en disant :

Je prédis que les juges humains existeront pendant un certain temps. Mais je prédis avec la même confiance que le travail judiciaire, en particulier au niveau des procès, sera considérablement affecté par l’IA. Ces changements concerneront non seulement la manière dont les juges effectuent leur travail, mais également la manière dont ils comprennent le rôle que joue l’IA dans les affaires dont ils sont saisis.
Le commentaire du juge en chef constitue son débat le plus significatif à ce jour sur l'influence de l'IA sur le droit, et coïncide avec un certain nombre de tribunaux inférieurs qui se débattent sur la meilleure façon de s'adapter à une nouvelle technologie capable de réussir l'examen du barreau mais également encline à générer des des fausses informations, un phénomène connu sous le nom « d'hallucinations » plutôt qu'erreur.


Le juge en chef a souligné que les avantages de l’IA ne seraient pas sans certains risques et inconvénients

« L’IA a évidemment un grand potentiel pour améliorer considérablement l’accès aux informations clés pour les avocats et les non-avocats. Mais cela risque tout aussi évidemment de porter atteinte aux intérêts de la vie privée et de déshumaniser la loi », a-t-il déclaré.

En plus de ces risques, les chatbots LLM populaires comme ChatGPT et Bard de Google peuvent produire de fausses informations, ce qui revient à dire que les utilisateurs s'en remettent à la chance chaque fois qu'ils font confiance aux robots sans vérifier leur travail au préalable.

Roberts a souligné que « toute utilisation de l’IA nécessite prudence et humilité ». Il a mentionné un cas où les hallucinations de l'IA ont conduit des avocats à citer des cas inexistants dans des documents judiciaires, ce qui, selon le juge en chef, est « toujours une mauvaise idée ». Roberts n'a pas donné plus de détails en dehors d'indiquer que le phénomène « a fait la une des journaux cette année ».

La semaine dernière, par exemple, Michael Cohen, ancien conseiller et avocat de Donald Trump, a déclaré dans des documents judiciaires qu'il avait donné par erreur à son avocat de fausses citations générées par un programme d'IA qui ont été citées dans un dossier officiel du tribunal. D’autres cas d’avocats incluant des cas inventés par l’IA dans des mémoires juridiques ont également été documentés.


Une évolution technologique qui influence l'écosystème judiciaire

Ci-dessous un extrait du rapport.

Les nouvelles technologies sont également entrées dans les cabinets d’avocats et les salles d’audience. La numérisation et l’examen assisté par la technologie (TAR) aident les avocats à faire face à l’explosion des documents électroniques d’enquête créés et conservés à l’ère numérique. Au lieu de fouiller dans des boîtes de papiers dans des entrepôts poussiéreux, les avocats examinent désormais les documents depuis leur bureau, voire leur table de salle à manger.

Les procès sont également très différents aujourd’hui de ce qu’ils étaient il y a dix ans. Les logiciels de présentation des procès, les comptes rendus judiciaires en temps réel, les aménagements pour les jurés, les plaideurs et les spectateurs handicapés, ainsi que de nombreuses autres applications, ont radicalement changé la façon dont les avocats présentent et les jurés reçoivent les preuves au tribunal.

La pandémie de COVID-19 a déclenché une nouvelle vague d’innovation technologique rapide. Les tribunaux à tous les niveaux du pouvoir judiciaire sont immédiatement passés des audiences en personne aux audiences à distance dans les affaires civiles. Avec l’adoption de la loi CARES, de nombreuses procédures pénales ont également été transférées en ligne. Les innovations clés initialement adoptées comme temporaires sont désormais devenues des éléments permanents du paysage juridique, permettant aux justiciables, aux avocats et aux tribunaux de réaliser des gains d’efficacité qui ne portent pas atteinte à d’autres droits juridiques ou constitutionnels importants.

Et maintenant, nous sommes confrontés à la dernière frontière technologique : l’intelligence artificielle (IA). À la base, l’IA combine des algorithmes et d’énormes ensembles de données pour résoudre des problèmes. Ses nombreuses formes et applications incluent la reconnaissance faciale que nous utilisons pour déverrouiller nos téléphones intelligents et la reconnaissance vocale que nous utilisons pour diriger nos téléviseurs intelligents. Les professeurs de droit rapportent avec crainte et angoisse que l’IA peut apparemment gagner des B lors de ses travaux en faculté de droit et même réussir l’examen du barreau. La recherche juridique pourrait bientôt devenir inimaginable sans elle. L’IA a évidemment un grand potentiel pour améliorer considérablement l’accès aux informations clés pour les avocats et les non-avocats. Mais cela risque tout aussi évidemment de porter atteinte aux intérêts de la vie privée et de déshumaniser la loi.

Les partisans de l’IA vantent son potentiel à accroître l’accès à la justice, en particulier pour les justiciables aux ressources limitées. Notre système judiciaire a le monopole de nombreuses formes de réparation. Si vous souhaitez une libération en cas de faillite, par exemple, vous devez consulter un juge fédéral. Pour ceux qui n’ont pas les moyens de payer les services d’un avocat, AI peut les aider. Il pilote de nouveaux outils hautement accessibles qui fournissent des réponses à des questions de base, notamment où trouver des modèles et des formulaires judiciaires, comment les remplir et où les apporter pour les présenter au juge, le tout sans quitter la maison. Ces outils ont le potentiel bienvenu de combler toute inadéquation entre les ressources disponibles et les besoins urgents de notre système judiciaire.

Mais toute utilisation de l’IA requiert prudence et humilité. L’une des applications les plus importantes d’AI a fait la une des journaux cette année en raison d’un défaut connu sous le nom d’« hallucination », qui a amené les avocats utilisant l’application à soumettre des mémoires avec des citations sur des cas inexistants. (C'est toujours une mauvaise idée.) Certains juristes se sont demandés si la saisie d'informations confidentielles dans un outil d'IA pourrait compromettre les tentatives ultérieures d'invoquer les privilèges juridiques. Dans les affaires pénales, l’utilisation de l’IA pour évaluer le risque de fuite, la récidive et d’autres décisions largement discrétionnaires impliquant des prédictions a suscité des inquiétudes quant à la régularité de la procédure, à la fiabilité et aux biais potentiels. Au moins à l’heure actuelle, des études montrent une perception publique persistante d’un « écart d’équité entre l’homme et l’IA », reflétant l’opinion selon laquelle les jugements humains, malgré tous leurs défauts, sont plus justes que tout ce que la machine crache.

L'approche prudente recommandée par le juge en chef de la Cour suprême est déjà adoptée par une Cour d'appel

La 5e Cour d'appel américaine de la Nouvelle-Orléans semble être d'accord avec le point de vue de Roberts selon lequel l'assistance juridique assistée par l'IA peut produire un travail moins que satisfaisant. Le tribunal a proposé une règle qui obligerait les avocats à certifier qu'ils ne s'appuient pas sur un logiciel d'IA pour rédiger des mémoires, ou qu'un humain a vérifié et édité tout texte généré par un chatbot.

Les avocats qui déclarent faussement qu'ils respectent la règle pourraient être confrontés à la possibilité que leurs dossiers soient radiés et sanctionnés, selon la règle proposée. Le 5e Circuit accepte les commentaires du public sur la proposition jusqu'au 4 janvier.

Sources : Rapport de fin d'année 2023 sur la magistrature fédérale, cinquième circuit

Et vous ?

Quelle est votre opinion sur l’utilisation de l’IA dans le domaine du droit ? Pensez-vous qu’elle soit bénéfique ou nuisible pour la justice ?
Quelles sont les limites que vous voyez à l’application de l’IA au travail judiciaire ? Comment les définir et les respecter ?
Que pensez-vous du cas de l’avocat qui a cité une affaire judiciaire fictive que lui a communiqué ChatGPT ? Quelles sanctions devrait-il encourir ?
Comment vérifier la fiabilité et la validité des sources juridiques générées par l’IA ? Quels sont les critères et les outils à utiliser ?
Comment préserver les valeurs et les principes qui fondent le droit, face à l’évolution rapide de la technologie ? Quel est le rôle et la responsabilité des juges et des avocats dans ce contexte ?

Voir aussi :

Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 15:08
En tant que Juriste je peux vous dire qu'on utilisera jamais ça dans ma boîte, on a testé le produit Lexis, c'est juste un index de recherche qui parle.

J'ai testé Ordalie c'est du même acabit, ils règlent le problème des sources en adoptant le parti pris de ne pas présenter de source (ce qui est le truc le plus débile à faire dans le monde juridique) et de répondre en étant le plus évasif possible. Si je lui demande comment transformer une SCI en SAS et vice versa le truc répond la même chose. Game over puisque du coup ça n'est même pas pour le moment au niveau d'article écris par des juniors.

Pour les particuliers c'est encore plus dangereux puisqu'avant de vouloir une réponse, il faut déjà savoir quoi demander
3  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 13/06/2024 à 14:08
26 secondes pour que l'IA analyse le contrat et 94 minutes pour un avocat. OK, combien de temps passés à programmer l'IA pour qu'elle soit aussi efficace sur ce segment spécifique d'une analyse de documents ? Remplacer le contrat de non divulgation par un babar l'éléphant et le truc ne sait déjà plus ou il habite non ?

Quoiqu'il en soit ça laisse songeur. J'aimerais bien pouvoir passer moins de temps à la rédaction et la vérification et si l'IA pouvait s'assurer que je fasse pas de bourde dans les chiffres ou une clause particulière c'est vrai qu'au final ce serait pas mal.

Après comme d'habitude ça soulève plus d'interrogation que de solution et évidemment tout le monde se lance dedans tête baissée
0  0