
des avocats condamnés à une amende de 5 000 dollars
Deux avocats américains ont été sanctionnés par un juge fédéral pour avoir cité dans leurs mémoires six affaires fictives inventées par ChatGPT, l’outil d’intelligence artificielle développé par OpenAI. Les avocats ont utilisé ChatGPT pour faire des recherches juridiques sans vérifier l’exactitude des opinions fournies par le chatbot. Le juge a qualifié l’analyse juridique d’une des affaires fictives de « charabia ». Il a rejeté le procès et infligé une amende de 5 000 dollars aux avocats et à leur cabinet.
Le juge leur a également ordonné d’envoyer des lettres aux six vrais juges qui ont été faussement identifiés comme les auteurs des fausses opinions. Le juge a estimé que soumettre des opinions erronées à un tribunal nuisait au client, au tribunal, à la partie adverse et à la réputation des juges et des tribunaux dont les noms ont été invoqués à tort.
Les avocats Steven Schwartz et Peter LoDuca du cabinet Levidow, Levidow, & Oberman « ont abandonné leurs responsabilités lorsqu'ils ont soumis des avis judiciaires inexistants avec de fausses citations créées par l'outil d'intelligence artificielle ChatGPT, puis ont continué à soutenir les faux avis après que des ordonnances judiciaires ont remis en question leur existence », a écrit le juge du district américain Kevin Castel dans une ordonnance.
Les deux avocats américains et leur cabinet ont été condamnés à une amende de 5 000 dollars (4 586 euros). Le juge P Kevin Castel, du district de Manhattan, a exigé à Steven Schwartz, Peter LoDuca et au cabinet Levidow & Oberman de payer l’amende après que des recherches juridiques fictives ont été utilisées dans une plainte contre la compagnie aérienne colombienne Avianca. Schwartz avait admis que ChatGPT avait inventé six affaires auxquelles il avait fait référence dans un mémoire juridique dans le cadre de l’affaire contre Avianca.
ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.
L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.
Les chatbots comme ChatGPT, développés par la société américaine OpenAI, peuvent être sujets à des « hallucinations » ou des inexactitudes. Dans un exemple, ChatGPT a faussement accusé un professeur de droit américain de harcèlement sexuel et cité un rapport inexistant du Washington Post dans le processus. En février, une vidéo promotionnelle du rival de ChatGPT, Bard, développé par Google, a donné une réponse inexacte à une question sur le télescope spatial James Webb, suscitant des inquiétudes sur le fait que le géant de la recherche avait été trop hâtif dans le lancement d’une riposte à la percée d’OpenAI.
Dans une affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »
L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »
Le juge Castel a déclaré qu’il n’y avait rien « d’intrinsèquement inapproprié » à utiliser l’intelligence artificielle pour aider au travail juridique, mais que les avocats devaient s’assurer de l’exactitude de leurs dépôts. « Les progrès technologiques sont monnaie courante et il n’y a rien d’intrinsèquement inapproprié à utiliser un outil d’intelligence artificielle fiable pour obtenir de l’aide », a écrit Castel. « Mais les règles existantes imposent aux avocats un rôle de gardien pour garantir l’exactitude de leurs dépôts. »
Castel a ajouté que les avocats et leur cabinet « ont abandonné leurs responsabilités lorsqu’ils ont soumis des opinions judiciaires inexistantes avec de fausses citations et références créées par l’outil d’intelligence artificielle ChatGPT, puis ont continué à soutenir les fausses opinions après que des ordonnances judiciaires ont remis en question leur existence ».
Un peu plus tôt en juin, un juge fédéral du Texas, Brantley Starr, a ordonné que tout contenu généré par une intelligence artificielle (IA) soit déclaré et vérifié par un être humain avant d’être utilisé dans un dépôt judiciaire. Brantley Starr a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte.
Le magistrat fédéral du Texas a instauré une règle selon laquelle tout avocat qui comparaît devant lui doit certifier qu’« aucune partie du mémoire n’a été écrite par une intelligence artificielle générative » ou, si c’est le cas, qu’elle a été contrôlée « par un être humain ».
Pour sa part, le cabinet Levidow & Oberman a déclaré dans un communiqué que ses avocats étaient « respectueusement » en désaccord avec le tribunal sur le fait qu’ils avaient agi de mauvaise foi. « Nous avons commis une erreur de bonne foi en ne croyant pas qu’un morceau de technologie puisse inventer des affaires de toutes pièces », ont-ils déclaré.
Source : Kevin Castel, juge du district américain
Et vous ?





Voir aussi :



Vous avez lu gratuitement 4 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.