IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Deux avocats condamnés à une amende pour avoir soumis de fausses références judiciaires provenant de ChatGPT
Des avocats condamnés à une amende de 5 000 dollars

Le , par Bruno

0PARTAGES

4  0 
Deux avocats américains ont été sanctionnés par un juge fédéral pour avoir cité dans leurs mémoires six affaires fictives inventées par ChatGPT, l’outil d’intelligence artificielle développé par OpenAI. Les avocats ont utilisé ChatGPT pour faire des recherches juridiques sans vérifier l’exactitude des opinions fournies par le chatbot. Le juge a qualifié l’analyse juridique d’une des affaires fictives de « charabia ». Il a rejeté le procès et infligé une amende de 5 000 dollars aux avocats et à leur cabinet.

Le juge leur a également ordonné d’envoyer des lettres aux six vrais juges qui ont été faussement identifiés comme les auteurs des fausses opinions. Le juge a estimé que soumettre des opinions erronées à un tribunal nuisait au client, au tribunal, à la partie adverse et à la réputation des juges et des tribunaux dont les noms ont été invoqués à tort.

Les avocats Steven Schwartz et Peter LoDuca du cabinet Levidow, Levidow, & Oberman « ont abandonné leurs responsabilités lorsqu'ils ont soumis des avis judiciaires inexistants avec de fausses citations créées par l'outil d'intelligence artificielle ChatGPT, puis ont continué à soutenir les faux avis après que des ordonnances judiciaires ont remis en question leur existence », a écrit le juge du district américain Kevin Castel dans une ordonnance.


Les deux avocats américains et leur cabinet ont été condamnés à une amende de 5 000 dollars (4 586 euros). Le juge P Kevin Castel, du district de Manhattan, a exigé à Steven Schwartz, Peter LoDuca et au cabinet Levidow & Oberman de payer l’amende après que des recherches juridiques fictives ont été utilisées dans une plainte contre la compagnie aérienne colombienne Avianca. Schwartz avait admis que ChatGPT avait inventé six affaires auxquelles il avait fait référence dans un mémoire juridique dans le cadre de l’affaire contre Avianca.

ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.

Les chatbots comme ChatGPT, développés par la société américaine OpenAI, peuvent être sujets à des « hallucinations » ou des inexactitudes. Dans un exemple, ChatGPT a faussement accusé un professeur de droit américain de harcèlement sexuel et cité un rapport inexistant du Washington Post dans le processus. En février, une vidéo promotionnelle du rival de ChatGPT, Bard, développé par Google, a donné une réponse inexacte à une question sur le télescope spatial James Webb, suscitant des inquiétudes sur le fait que le géant de la recherche avait été trop hâtif dans le lancement d’une riposte à la percée d’OpenAI.

Dans une affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »

L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »

Le juge Castel a déclaré qu’il n’y avait rien « d’intrinsèquement inapproprié » à utiliser l’intelligence artificielle pour aider au travail juridique, mais que les avocats devaient s’assurer de l’exactitude de leurs dépôts. « Les progrès technologiques sont monnaie courante et il n’y a rien d’intrinsèquement inapproprié à utiliser un outil d’intelligence artificielle fiable pour obtenir de l’aide », a écrit Castel. « Mais les règles existantes imposent aux avocats un rôle de gardien pour garantir l’exactitude de leurs dépôts. »

Castel a ajouté que les avocats et leur cabinet « ont abandonné leurs responsabilités lorsqu’ils ont soumis des opinions judiciaires inexistantes avec de fausses citations et références créées par l’outil d’intelligence artificielle ChatGPT, puis ont continué à soutenir les fausses opinions après que des ordonnances judiciaires ont remis en question leur existence ».

Un peu plus tôt en juin, un juge fédéral du Texas, Brantley Starr, a ordonné que tout contenu généré par une intelligence artificielle (IA) soit déclaré et vérifié par un être humain avant d’être utilisé dans un dépôt judiciaire. Brantley Starr a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte.

Le magistrat fédéral du Texas a instauré une règle selon laquelle tout avocat qui comparaît devant lui doit certifier qu’« aucune partie du mémoire n’a été écrite par une intelligence artificielle générative » ou, si c’est le cas, qu’elle a été contrôlée « par un être humain ».

Pour sa part, le cabinet Levidow & Oberman a déclaré dans un communiqué que ses avocats étaient « respectueusement » en désaccord avec le tribunal sur le fait qu’ils avaient agi de mauvaise foi. « Nous avons commis une erreur de bonne foi en ne croyant pas qu’un morceau de technologie puisse inventer des affaires de toutes pièces », ont-ils déclaré.

Source : Kevin Castel, juge du district américain

Et vous ?

Quel est votre avis sur le sujet ?

Avez-vous déjà utilisé ChatGPT ou une autre IA générative ? Pour quels résultats ?

Que pensez-vous des avantages et des risques de ChatGPT dans le domaine juridique ? Trouvez-vous que ChatGPT est un outil utile ou dangereux pour les avocats ?

Quels sont les signes qui vous alertent sur la possibilité qu’une information soit fausse ou inventée par ChatGPT ?

Que pensez-vous de la décision du juge de sanctionner les avocats ?

Voir aussi :

Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes

Un juge ordonne que tous les contenus générés par l'IA soient déclarés et contrôlés, après qu'un avocat a laissé ChatGPT lui fournir des précédents juridiques inventés de toutes pièces

Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de onilink_
Membre émérite https://www.developpez.com
Le 26/06/2023 à 11:02
Citation Envoyé par totozor Voir le message
Tout dépend de la taille du cabinet mais 5000$ peut être faible, non?
Ouais c'est ce que je pensais aussi mais de ce que j'ai lu c'est plus symbolique qu'autre chose.
En dehors de ça ça va beaucoup plus loin. Ils ont du présenter des excuses écrites à toutes les personnes cités dans l'affaire, le procès a été très médiatisé ce qui a fait une très mauvaise pub aux avocats et au cabinet, ils risquent de se faire radier et ont définitivement perdu le procès.

De plus leurs clients peuvent les poursuivre pour faute professionnelle. Bref ils sont vraiment pas sorti d'affaire.
3  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 15:08
En tant que Juriste je peux vous dire qu'on utilisera jamais ça dans ma boîte, on a testé le produit Lexis, c'est juste un index de recherche qui parle.

J'ai testé Ordalie c'est du même acabit, ils règlent le problème des sources en adoptant le parti pris de ne pas présenter de source (ce qui est le truc le plus débile à faire dans le monde juridique) et de répondre en étant le plus évasif possible. Si je lui demande comment transformer une SCI en SAS et vice versa le truc répond la même chose. Game over puisque du coup ça n'est même pas pour le moment au niveau d'article écris par des juniors.

Pour les particuliers c'est encore plus dangereux puisqu'avant de vouloir une réponse, il faut déjà savoir quoi demander
3  0 
Avatar de Delias
Modérateur https://www.developpez.com
Le 18/08/2023 à 12:07
ChatGPT et ses conseurs ne font qu'aligner les mots (voir des parties de mots) de la manière la plus probable qu'il soit. Ce sont un outils statistique à grande échelle.
En concéquence il y a zéro réfléxion, logique ou esprit critique dans ce qu'ils écrivent, sauf de parraître le plus plausible qu'il soit car l'ordre des mots est quasi parfaite.

Et les IA ferront comment quand il n'y aura plus de données d'entrainement générée par des humains?

Il est grand temps que cette bulle spéculative crève
2  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 26/06/2023 à 15:45
Je vois bien l'intérêt à demander à ChatGPT de faire un topo à sa place. Mais s'ils avaient un minimum de conscience professionnelle ils se serviraient du temps gagné pour vérifier le boulot...
1  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 27/06/2023 à 9:38
Citation Envoyé par onilink_ Voir le message
Ouais c'est ce que je pensais aussi mais de ce que j'ai lu c'est plus symbolique qu'autre chose.
En dehors de ça ça va beaucoup plus loin. Ils ont du présenter des excuses écrites à toutes les personnes cités dans l'affaire, le procès a été très médiatisé ce qui a fait une très mauvaise pub aux avocats et au cabinet, ils risquent de se faire radier et ont définitivement perdu le procès.

De plus leurs clients peuvent les poursuivre pour faute professionnelle. Bref ils sont vraiment pas sorti d'affaire.
Ou la prose de ChatGPT est tellement bien tourné que tu en oublie de douter
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 13/06/2024 à 14:08
26 secondes pour que l'IA analyse le contrat et 94 minutes pour un avocat. OK, combien de temps passés à programmer l'IA pour qu'elle soit aussi efficace sur ce segment spécifique d'une analyse de documents ? Remplacer le contrat de non divulgation par un babar l'éléphant et le truc ne sait déjà plus ou il habite non ?

Quoiqu'il en soit ça laisse songeur. J'aimerais bien pouvoir passer moins de temps à la rédaction et la vérification et si l'IA pouvait s'assurer que je fasse pas de bourde dans les chiffres ou une clause particulière c'est vrai qu'au final ce serait pas mal.

Après comme d'habitude ça soulève plus d'interrogation que de solution et évidemment tout le monde se lance dedans tête baissée
0  0