Il est rare qu’un avocat confie à une IA le soin de rédiger ses plaidoiries, mais cela s’est déjà produit, et le juge Brantley Starr veut éviter que ce scandale ne se reproduise dans son tribunal. Le magistrat fédéral du Texas a instauré une règle selon laquelle tout avocat qui comparaît devant lui doit certifier qu’« aucune partie du mémoire n’a été écrite par une intelligence artificielle générative » ou, si c’est le cas, qu’elle a été contrôlée « par un être humain ».
La semaine dernière, l’avocat Steven Schwartz a laissé ChatGPT « compléter » ses recherches juridiques dans une affaire fédérale récente, en lui donnant six cas et des jurisprudences pertinentes - qui ont tous été inventés de toutes pièces par le modèle de langage. Il « regrette profondément » son geste et, même si la médiatisation nationale de cette erreur a probablement dissuadé d’autres avocats tentés de faire de même, le juge Starr ne veut pas prendre de risque.
Comme les autres magistrats, Brantley Starr peut fixer des règles particulières pour son tribunal sur le site fédéral du district nord du Texas. Il a récemment ajouté l’« obligation de certification relative à l’intelligence artificielle générative » (on ignore si c’est en réaction à la plainte mentionnée plus haut). Eugene Volokh a été le premier à révéler l’information.
« Tous les avocats qui se présentent devant la Cour doivent remettre au greffe un certificat indiquant qu’aucune partie du mémoire n’a été écrite par une intelligence artificielle générative (comme ChatGPT, Harvey.AI ou Google Bard) ou que la véracité des termes rédigés par une intelligence artificielle générative a été contrôlée par un être humain à l’aide de journalistes de la presse écrite ou de sources juridiques classiques. »
Un formulaire à signer par les avocats est annexé, indiquant que « les citations, les affirmations paraphrasées et les analyses juridiques » sont toutes couvertes par cette interdiction. Le résumé étant l'un des points forts de l'IA, et la recherche et le résumé de précédents ou d'affaires antérieures ayant été annoncés comme potentiellement utiles dans le cadre du travail juridique, il se peut que cette interdiction soit appliquée plus souvent que prévu. L'exigence de certification comprend une explication assez convaincante de sa nécessité :
Ces plateformes sont incroyablement puissantes et ont de nombreuses utilisations dans le domaine juridique : formulaires de divorce, demandes de communication de pièces, erreurs suggérées dans des documents, questions anticipées lors d'une plaidoirie. Mais l'information juridique n'en fait pas partie. Voici pourquoi.
Dans leur état actuel, ces plateformes sont sujettes aux hallucinations et aux préjugés. En ce qui concerne les hallucinations, elles inventent des choses - même des citations. Un autre problème est celui de la fiabilité ou de la partialité. Alors que les avocats prêtent serment de mettre de côté leurs préjugés, leurs partis pris et leurs croyances personnelles pour défendre fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment.
Dans leur état actuel, ces plateformes sont sujettes aux hallucinations et aux préjugés. En ce qui concerne les hallucinations, elles inventent des choses - même des citations. Un autre problème est celui de la fiabilité ou de la partialité. Alors que les avocats prêtent serment de mettre de côté leurs préjugés, leurs partis pris et leurs croyances personnelles pour défendre fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment.
Alors que les avocats prêtent serment de mettre de côté leurs préjugés, leurs partis pris et leurs croyances personnelles pour défendre fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment. En tant que tels, ces systèmes ne prêtent allégeance à aucun client, à l'État de droit, aux lois et à la Constitution des États-Unis (ou, comme nous l'avons vu plus haut, à la vérité).
Libérés de tout sens du devoir, de l'honneur ou de la justice, ces programmes agissent en fonction d'un code informatique plutôt que d'une conviction, sur la base d'une programmation plutôt que d'un principe. Toute partie estimant qu'une plateforme possède l'exactitude et la fiabilité requises pour un exposé juridique peut demander l'autorisation et expliquer pourquoi.
En conséquence, la Cour annulera tout document déposé par un avocat qui ne dépose pas au plumitif un certificat attestant que l'avocat a lu les exigences de la Cour relatives aux juges et qu'il comprend qu'il sera tenu responsable du contenu de tout document qu'il signe et soumet à la Cour, indépendamment du fait que l'intelligence artificielle générative ait rédigé une partie de ce document.
Source : Eugene Volokh in a blog post
Et vous ?
Quels sont selon vous, les risques juridiques et éthiques de recourir à une intelligence artificielle générative pour produire du contenu juridique ?
À votre avis, quels sont les critères qui permettent de distinguer un texte rédigé par une intelligence artificielle générative d’un texte rédigé par un être humain ?
Quelles sont les limites et quels sont les biais des modèles de langage comme ChatGPT, Harvey.AI ou Google Bard ?
Voir aussi :
Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »
Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours seulement après sa création en novembre 2022, révolutionnant le gain de temps dans divers domaines