Un juge de district de Manhattan a ordonné à Steven Schwartz, Peter LoDuca et leur cabinet d'avocats Levidow, Levidow & Oberman de payer l'amende après que des recherches juridiques fictives aient été utilisées dans une réclamation pour blessure à l'aviation. Schwartz avait admis que ChatGPT, un chatbot qui produit des réponses textuelles plausibles aux invites humaines, avait inventé six cas auxquels il faisait référence dans un mémoire juridique dans une affaire contre la compagnie aérienne colombienne Avianca.
Le procès a commencé comme tant d'autres : un homme du nom de Roberto Mata a poursuivi la compagnie aérienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou lors d'un vol vers l'aéroport international Kennedy de New York.
Quand Avianca a demandé à un juge fédéral de Manhattan de rejeter l'affaire, les avocats de Mata se sont opposés avec véhémence, soumettant un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice pertinentes. Il y a eu Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines, avec sa savante discussion sur la loi fédérale et « l'effet de péage de la suspension automatique d'un délai de prescription ».
Il y avait juste un hic : personne (ni les avocats de la compagnie aérienne ni le juge lui-même) n'a pu trouver les décisions ou les citations citées et résumées dans le mémoire.
C'était parce que ChatGPT avait tout inventé.
En effet, les avocats d'Avianca ont écrit au juge Castel, disant qu'ils étaient incapables de trouver les cas cités dans le mémoire. En ce qui concerne Varghese c. China Southern Airlines, ils ont déclaré qu'ils n'avaient « pas été en mesure de localiser cette affaire par légende ou citation, ni aucune affaire ressemblant à celle-ci ». Ils ont souligné une longue citation de la prétendue décision Varghese contenue dans le mémoire. « Le soussigné n'a pas été en mesure de localiser cette citation, ni quoi que ce soit de semblable en tout cas », ont écrit les avocats d'Avianca. En effet, ont ajouté les avocats, la citation, qui provenait de Varghese lui-même, citait quelque chose appelé Zicherman c. Korean Air Lines Co. Ltd., une opinion prétendument rendue par la Cour d'appel des États-Unis pour le 11e circuit en 2008. Ils ont dit qu'il n'a pas pu le trouver non plus.
Ce n’est donc qu’après que les avocats de la compagnie aérienne ont souligné dans un nouveau mémoire que les affaires n’existaient pas que Schwartz a découvert son erreur (ou, l’erreur de l’ordinateur, selon le point de vue).
L'avocat qui a créé le dossier, Steven A. Schwartz du cabinet Levidow, Levidow & Oberman, s'est exposé au courroux du tribunal jeudi, affirmant dans un affidavit qu'il avait utilisé le programme d'intelligence artificielle pour faire ses recherches juridiques, une source qui s'est révélée peu fiable. Schwartz, qui a pratiqué le droit à New York pendant trois décennies, a déclaré au juge P. Kevin Castel qu'il n'avait aucune intention de tromper le tribunal ou la compagnie aérienne. Schwartz a déclaré qu'il n'avait jamais utilisé ChatGPT et « ignorait donc la possibilité que son contenu puisse être faux ».
Il avait, dit-il au juge Castel, demandé au programme de « vérifier que les cas étaient réels ». Et ChatGPT lui a répondu qu'ils l'étaient.
Schwartz a déclaré qu'il « regrette profondément » de s'être appuyé sur ChatGPT « et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité ».
Le juge Castel a déclaré dans une ordonnance qu'il avait été confronté à « une circonstance sans précédent », une soumission légale remplie de « fausses décisions judiciaires, avec de fausses citations et de fausses citations internes ». Il a ordonné une audience le 8 juin pour discuter d'éventuelles sanctions.
5 000 dollars d'amende et des lettres à envoyer aux juges cités par ChatGPT
Le juge P Kevin Castel a déclaré dans une opinion écrite qu'il n'y avait rien « d'intrinsèquement inapproprié » à utiliser l'intelligence artificielle pour aider au travail juridique, mais les avocats devaient s'assurer que leurs documents étaient exacts.
« Les progrès technologiques sont monnaie courante et il n'y a rien de fondamentalement inapproprié à utiliser un outil d'intelligence artificielle fiable pour l'assistance », a écrit Castel. « Mais les règles existantes imposent un rôle de contrôle aux avocats pour garantir l'exactitude de leurs documents ».
Le juge a déclaré que les avocats et leur cabinet « ont abandonné leurs responsabilités lorsqu'ils ont soumis des avis judiciaires inexistants avec de fausses citations et citations créées par l'outil d'intelligence artificielle ChatGPT, puis ont continué à s'en tenir aux faux avis après que des ordonnances judiciaires ont remis leur existence en question ».
Les chatbots sont formés sur une vaste mine de données extraites d'Internet, bien que les sources ne soient pas disponibles dans de nombreux cas. Fonctionnant comme un outil de texte prédictif, ils construisent un modèle pour prédire le mot ou la phrase le plus susceptible de venir après l'invite d'un utilisateur. Cela signifie que des erreurs factuelles sont possibles, mais la réponse d'apparence humaine peut parfois convaincre les utilisateurs que la réponse est correcte.
Le juge a déclaré que l'une des fausses décisions générées par le chatbot avait « certains traits qui sont superficiellement cohérents avec les décisions judiciaires réelles » mais que d'autres parties contenaient du « charabia » et étaient « absurdes ».
Castel a condamné Levidow, Levidow & Oberman à une amende de 5 000 $ et a ordonné au cabinet d'avocats d'envoyer des lettres à chaque juge faussement identifié comme l'auteur de l'une des fausses opinions.
Levidow, Levidow & Oberman ont déclaré jeudi dans un communiqué que ses avocats étaient « respectueusement » en désaccord avec le tribunal lorsqu'il a estimé qu'ils avaient agi de mauvaise foi : « Nous avons fait une erreur de bonne foi en ne croyant pas qu'une technologie pourrait fabriquer des cas à partir de tissu entier », a-t-il déclaré.
Une technologie qui invente souvent des faits et des sources
ChatGPT a été lancé à la fin de 2022 et est devenu immédiatement un succès. Le chatbot fait partie d’une famille de nouvelles technologies appelées IA générative qui peuvent tenir des conversations qui sont si organiques et normales que parfois ChatGPT semble avoir une volonté propre. Mais la technologie est notoirement imprécise et invente souvent des faits et des sources pour des faits qui sont complètement faux. Le produit concurrent de Google, Bard, a des problèmes similaires.
Mais rien de tout cela n’a empêché les gens d’utiliser cette technologie expérimentale comme si elle était une source d’information fiable.
Stephen Gillers, professeur d’éthique juridique à la faculté de droit de l’université de New York, a déclaré que le problème était particulièrement aigu chez les avocats, qui débattent de la valeur et des dangers des logiciels d’IA comme ChatGPT, ainsi que de la nécessité de vérifier toute information qu’ils fournissent. Il a ajouté que les avocats devraient être conscients que l’utilisation de ChatGPT pourrait constituer une violation du code de déontologie professionnelle, qui exige que les avocats agissent avec diligence et compétence dans la représentation de leurs clients.
« Si vous utilisez ChatGPT sans vérifier ce qu’il dit, vous êtes irresponsable », a-t-il déclaré. « Et si vous vérifiez ce qu’il dit et que vous découvrez qu’il est faux, vous êtes malhonnête ».
« La discussion actuellement au sein du barreau est de savoir comment éviter exactement ce que cette affaire décrit », a déclaré Gillers. « Vous ne pouvez pas simplement prendre la sortie et la couper et la coller dans vos documents judiciaires ».
Le cas de Roberto Mata c. Avianca Inc. suggère qu'il reste du temps aux professionnels en cols blancs avant que les bots ne soient en mesure de les remplacer.
Source : Reuters
Et vous ?
Que pensez-vous de la sanction infligée à l’avocat qui a utilisé ChatGPT pour citer des affaires fictives et à son cabinet ? Trouvez-vous qu’il [l'avocat] a agi de manière irresponsable ou malhonnête ?
Avez-vous déjà utilisé ChatGPT ou une autre IA générative ? Si oui, pour quelles raisons et avec quels résultats ?
Que pensez-vous des avantages et des risques de ChatGPT dans le domaine juridique ? Trouvez-vous que ChatGPT est un outil utile ou dangereux pour les avocats ?
Comment vérifiez-vous la fiabilité et l’authenticité des informations que vous trouvez en ligne ? Quels sont les signes qui vous alertent sur la possibilité qu’une information soit fausse ou inventée par ChatGPT ?
Un juge a infligé une amende de 5 000 $ à un cabinet d'avocats qui s'est appuyé sur des affaires juridiques fictives générées par ChatGPT
Ce dernier avait assuré que ces affaires étaient réelles
Un juge a infligé une amende de 5 000 $ à un cabinet d'avocats qui s'est appuyé sur des affaires juridiques fictives générées par ChatGPT
Ce dernier avait assuré que ces affaires étaient réelles
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !