Avec les progrès majeurs dans le domaine de l'IA et du traitement du langage naturel (NLP), le potentiel des technologies d'IA à remplacer les professionnels humains dans différents domaines fait l'objet d'un débat croissant. Le secteur juridique n'échappe pas à ce débat. Par exemple, ChatGPT, le puissant modèle de langage développé par OpenAI, s'est avéré prometteur dans la fourniture de conseils juridiques et de réponses à des questions juridiques. Cela dit, il existe des arguments pour et contre le remplacement des avocats par ChatGPT. Mais les récents scandales suscités par l'utilisation de ChatGPT par les avocats montrent qu'il est loin d'être prêt.
Dans le cadre d'un procès contre une compagnie aérienne aux États-Unis, l'avocat Steven Schwartz a cité six affaires fictives générées par ChatGPT. Il a fait référence à d'anciennes affaires judiciaires qu'il croyait réelles, mais qui avaient en effet été inventées par le chatbot d'IA. Il a reconnu avoir utilisé ChatGPT pour rechercher des jurisprudences pour les utiliser dans le cadre du procès intenté par un client contre la compagnie aérienne colombienne Avianca pour une blessure subie lors d'un vol en 2019. ChatGPT a suggéré des cas d'accidents aériens que Schwartz n'avait pas pu trouver avec les méthodes habituelles utilisées par son cabinet d'avocats.
L'avocat les a inscrits ces affaires dans son mémoire juridique, mais n'a pas pris la peine de vérifier l’authenticité des sources. Le problème est que plusieurs de ces cas n'étaient pas réels ou impliquaient des compagnies aériennes qui n'existaient pas. Résultat, Schwartz et son employeur se sont retrouvés en difficulté devant le juge lorsqu'il s'est avéré que les données fournies par ChatGPT étaient fausses et ils ont été critiqués pour le laxisme dont ils ont fait preuve. Le juge a qualifié cette affaire d'inédite et de trompeuse, mais a également ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle.
Le juge fédéral de l'affaire, Kevin Castel, a en outre dénoncé les dangers de l’utilisation de l’IA dans le domaine juridique, et a appelé à une réglementation plus stricte pour éviter les abus et les erreurs. Il a envisagé des sanctions à l'encontre de Schwartz et de ses associés, mais a donné une chance à Schwartz de s'expliquer. Ainsi, le 8 juin, Schwartz, son confrère Peter LoDuca et le cabinet d'avocats ont comparu devant le juge Castel afin de justifier les raisons pour lesquelles ils ne devraient pas être sanctionnés. Lors de l'audience, Schwartz a tenté de rejeter la faute sur ChatGPT, affirmant que le chatbot d'IA d'OpenAI l'a lamentablement induit en erreur.
Schwartz a déclaré qu'il pensait à tort que ChatGPT obtenait ces cas d'une source à laquelle lui ou son cabinet n'avait pas accès. « Je n'avais pas compris que ChatGPT pouvait fabriquer des cas », a déclaré Schwartz. Cet argument semble un peu tiré par les cheveux, car les problèmes liés à l'utilisation de ChatGPT dans le domaine juridique, et d'autres, sont largement documentés. Le juge Castel a semblé à la fois déconcerté et troublé par cet événement inhabituel. Il était aussi déçu que les avocats n'aient pas agi rapidement pour corriger les fausses citations juridiques lorsqu'ils ont été alertés du problème par les avocats d'Avianca et par le tribunal.
Avianca aurait signalé la jurisprudence erronée dans un document déposé en mars. Castel a confronté Schwartz à un cas juridique inventé par ChatGPT. Il s'agissait au départ d'une affaire de décès injustifiée intentée par une femme contre une compagnie aérienne, qui s'est ensuite transformée en une action en justice concernant un homme qui a manqué un vol pour New York et a été contraint d'engager des dépenses supplémentaires. « Pouvons-nous convenir qu'il s'agit d'un charabia juridique ? », a demandé Castel. Schwartz a déclaré qu'il pensait à tort que cette présentation confuse résultait d'extraits de différentes parties de l'affaire.
Lorsque Castel a terminé son interrogatoire, il a demandé à Schwartz s'il avait quelque chose à ajouter. « Je voudrais m'excuser sincèrement », a répondu Schwartz. Il a déclaré avoir souffert personnellement et professionnellement de cette bévue et qu'il se sentait "embarrassé, humilié et extrêmement plein de remords". Il a ajouté que lui-même et le cabinet où il travaillait avaient mis en place des mesures de protection pour éviter qu'une telle situation ne se reproduise. LoDuca, un autre avocat qui a travaillé sur l'affaire et qui a aussi été auditionné, a déclaré qu'il faisait confiance à Schwartz et qu'il n'avait pas suffisamment examiné ce qu'il avait compilé.
Après que le juge a lu à haute voix des extraits d'une affaire citée pour montrer à quel point il était facile de discerner qu'il s'agissait de "charabia", LoDuca a déclaré : « il ne m'est jamais venu à l'esprit que ce n'était pas le cas. Il ne m'est jamais venu à l'esprit qu'il s'agissait d'une affaire bidon ». Ronald Minkoff, avocat au cabinet d'avocats qui emploie Schwartz, a déclaré au juge que la soumission "résultait d'une négligence et non de la mauvaise foi" et ne devrait pas entraîner de sanctions. Il a ajouté que les avocats ont toujours eu du mal à s'adapter à la technologie, en particulier aux nouvelles technologies, "et que cela ne s'arrange pas".
« Schwartz, qui fait à peine des recherches au niveau fédéral, a choisi d'utiliser cette nouvelle technologie. Il pensait avoir affaire à un moteur de recherche standard. Ce qu'il a fait, c'est jouer avec des munitions réelles », a déclaré Minkoff. Daniel Shin, professeur associé et directeur adjoint de la recherche au Center for Legal and Court Technology de la William & Mary Law School, a expliqué qu'il avait présenté l'affaire Avianca lors d'une conférence au début du mois qui a attiré des dizaines de participants en personne et en ligne provenant de tribunaux fédéraux et d'État des États-Unis, y compris du tribunal fédéral de Manhattan.
Shin a déclaré que le sujet avait suscité le choc et la perplexité lors de la conférence. « Nous parlons du district sud de New York, le district fédéral qui s'occupe des grandes affaires, du 11 septembre à tous les grands crimes financiers. Il s'agit du premier cas documenté de faute professionnelle potentielle de la part d'un avocat utilisant l'IA générative », a déclaré Shin. Selon lui, l'affaire a démontré que les avocats n'avaient peut-être pas compris le fonctionnement de ChatGPT, qui a tendance à halluciner et à parler de choses fictives d'une manière qui semble réaliste, mais qui ne l'est pas. Le juge se prononcera sur les sanctions à une date ultérieure.
Selon les critiques, bien que le ChatGPT soit prometteur dans sa capacité à fournir des conseils juridiques et des réponses à des questions juridiques, il n'est pas encore assez avancé pour remplacer entièrement les avocats humains. Cependant, il peut jouer un rôle précieux en tant qu'outil pour aider les avocats dans divers aspects de leur travail, tels que la recherche juridique, l'analyse de documents, l'assistance aux clients et la rédaction. En exploitant les capacités de ChatGPT, les avocats pourraient améliorer leur efficacité, gagner du temps et améliorer l'ensemble de leurs services juridiques. Ils estiment toutefois que les avocats doivent rester vigilants lorsqu'ils utilisent ChatGPT.
Mais il est important de reconnaître les limites de ChatGPT et de s'assurer que les avocats humains continuent à fournir le jugement, l'expertise et les considérations éthiques nécessaires à la profession juridique.
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »
Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles
Un juge ordonne que tous les contenus générés par l'IA soient déclarés et contrôlés, après qu'un avocat a laissé ChatGPT lui fournir des précédents juridiques inventés de toutes pièces
ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres, des professeurs estiment que cela pourrait signer la fin des méthodes d'enseignement traditionnelles