
Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.
ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.
L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.
Le juge en charge de l’affaire, Robert Katzmann, a sévèrement sanctionné l’avocat pour avoir induit le tribunal en erreur. Il a ordonné à Schwartz de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Il a également dénoncé les dangers de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte pour éviter les abus et les erreurs.
Dans une autre affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »
L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »
ChatGPT n'a « pas pour but de remplacer » les juges, a précisé le juge. Padilla a insisté sur le fait qu' « en posant des questions à l'application, nous ne cessons pas d'être des juges, des êtres pensants. » « Je soupçonne que beaucoup de mes collègues vont se joindre à cela et commencer à construire leurs décisions de manière éthique avec l'aide de l'intelligence artificielle », a déclaré Padilla.
Le juge fédéral Kevin Castel envisage des sanctions à l'encontre de Schwartz et de ses associés. Dans une ordonnance rendue vendredi, Castel a fixé au 8 juin une audience au cours de laquelle M. Schwartz, son confrère Peter LoDuca et le cabinet d'avocats devront justifier les raisons pour lesquelles ils ne devraient pas être sanctionnés.
« La Cour est confrontée à une situation sans précédent, a écrit Castel dans une ordonnance rendue le 4 mai. Un mémoire déposé par l'avocat du plaignant en opposition à une requête en irrecevabilité est rempli de citations de cas inexistants... Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes ».
Les documents déposés comprenaient non seulement des noms d'affaires inventées, mais aussi une série de pièces à conviction contenant des « extraits » des fausses décisions. Par exemple, l'avis erroné Varghese v. China Southern Airlines cite plusieurs précédents qui n'existent pas. L'avis erroné « Varghese » contient des citations internes qui, à leur tour, sont inexistantes », a écrit Castel. Cinq autres « décisions soumises par l'avocat du plaignant contiennent des lacunes similaires et semblent également erronées », a écrit Castel.
Pour certains analystes, cette affaire est un exemple des défis posés par l’intelligence artificielle, qui peut produire du contenu crédible, mais faux. Il est important de vérifier les sources et de faire preuve d’esprit critique face aux informations générées par l’intelligence artificielle.
Source : Déclaration sous serment de Schwartz
Et vous ?





Voir aussi :

