Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. L’avocat, Steven Schwartz, a reconnu avoir utilisé pour compléter ses recherches juridiques, mais qu’il n’avait pas vérifié l’authenticité des sources.
Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.
ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.
L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.
Le juge en charge de l’affaire, Robert Katzmann, a sévèrement sanctionné l’avocat pour avoir induit le tribunal en erreur. Il a ordonné à Schwartz de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Il a également dénoncé les dangers de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte pour éviter les abus et les erreurs.
Dans une autre affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »
L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »
ChatGPT n'a « pas pour but de remplacer » les juges, a précisé le juge. Padilla a insisté sur le fait qu' « en posant des questions à l'application, nous ne cessons pas d'être des juges, des êtres pensants. » « Je soupçonne que beaucoup de mes collègues vont se joindre à cela et commencer à construire leurs décisions de manière éthique avec l'aide de l'intelligence artificielle », a déclaré Padilla.
Le juge fédéral Kevin Castel envisage des sanctions à l'encontre de Schwartz et de ses associés. Dans une ordonnance rendue vendredi, Castel a fixé au 8 juin une audience au cours de laquelle M. Schwartz, son confrère Peter LoDuca et le cabinet d'avocats devront justifier les raisons pour lesquelles ils ne devraient pas être sanctionnés.
« La Cour est confrontée à une situation sans précédent, a écrit Castel dans une ordonnance rendue le 4 mai. Un mémoire déposé par l'avocat du plaignant en opposition à une requête en irrecevabilité est rempli de citations de cas inexistants... Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes ».
Les documents déposés comprenaient non seulement des noms d'affaires inventées, mais aussi une série de pièces à conviction contenant des « extraits » des fausses décisions. Par exemple, l'avis erroné Varghese v. China Southern Airlines cite plusieurs précédents qui n'existent pas. L'avis erroné « Varghese » contient des citations internes qui, à leur tour, sont inexistantes », a écrit Castel. Cinq autres « décisions soumises par l'avocat du plaignant contiennent des lacunes similaires et semblent également erronées », a écrit Castel.
Pour certains analystes, cette affaire est un exemple des défis posés par l’intelligence artificielle, qui peut produire du contenu crédible, mais faux. Il est important de vérifier les sources et de faire preuve d’esprit critique face aux informations générées par l’intelligence artificielle.
Source : Déclaration sous serment de Schwartz
Et vous ?
Quel est avis sur le sujet ?
Utilisez-vous chatGPT pour avancer dans certains de vos tâches ?
Quelles peuvent être les conséquences juridiques et éthiques de l’utilisation de ChatGPT pour la recherche juridique ?
Quelle est, selon vous, la fiabilité de ChatGPT pour fournir des informations exactes et pertinentes ?
Quelles peuvent être les mesures à prendre par le tribunal pour éviter que ce genre de situation ne se reproduise ?
Voir aussi :
Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours seulement après sa création en novembre 2022, révolutionnant le gain de temps dans divers domaines
Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes
Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI,
Le juge qualifie cette affaire de « sans précédent »
Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI,
Le juge qualifie cette affaire de « sans précédent »
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !