IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles.
ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

Le , par Stéphane le calme

197PARTAGES

6  0 
Un avocat a utilisé ChatGPT pour générer et citer des affaires fictives dans un mémoire juridique, provoquant la fureur du juge et des sanctions potentielles. Lorsqu’on lui a demandé de fournir des copies des affaires citées, l’avocat s’est tourné à nouveau vers ChatGPT, qui a produit des détails complets sur les affaires inexistantes.

L’avocat en question, Steven A. Schwartz, représentait un homme qui poursuivait la compagnie aérienne Avianca après qu’un chariot de service lui ait heurté le genou lors d’un vol vers l’aéroport Kennedy de New York en 2019. Schwartz a déclaré qu’il n’avait jamais utilisé ChatGPT auparavant et qu’il ne savait pas qu’il inventerait simplement des affaires. En fait, Schwartz a dit qu’il avait même demandé à ChatGPT si les affaires étaient réelles. Le chatbot a insisté sur le fait qu’elles l’étaient.


Le procès a commencé comme tant d'autres : un homme du nom de Roberto Mata a poursuivi la compagnie aérienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou lors d'un vol vers l'aéroport international Kennedy de New York.

Quand Avianca a demandé à un juge fédéral de Manhattan de rejeter l'affaire, les avocats de Mata se sont opposés avec véhémence, soumettant un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice pertinentes. Il y a eu Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines, avec sa savante discussion sur la loi fédérale et « l'effet de péage de la suspension automatique d'un délai de prescription ».

Il y avait juste un hic : personne (ni les avocats de la compagnie aérienne ni le juge lui-même) n'a pu trouver les décisions ou les citations citées et résumées dans le mémoire.

C'était parce que ChatGPT avait tout inventé.

En fait, ce n’est qu’après que les avocats de la compagnie aérienne ont souligné dans un nouveau mémoire que les affaires n’existaient pas que Schwartz a découvert son erreur (ou, l’erreur de l’ordinateur, selon le point de vue).

L'avocat qui a créé le dossier, Steven A. Schwartz du cabinet Levidow, Levidow & Oberman, s'est exposé au courroux du tribunal jeudi, affirmant dans un affidavit qu'il avait utilisé le programme d'intelligence artificielle pour faire ses recherches juridiques, une source qui s'est révélée peu fiable. Schwartz, qui a pratiqué le droit à New York pendant trois décennies, a déclaré au juge P. Kevin Castel qu'il n'avait aucune intention de tromper le tribunal ou la compagnie aérienne. Schwartz a déclaré qu'il n'avait jamais utilisé ChatGPT et « ignorait donc la possibilité que son contenu puisse être faux ».

Il avait, dit-il au juge Castel, demandé au programme de « vérifier que les cas étaient réels ». Et ChatGPT lui a répondu qu'ils l'étaient.

Schwartz a déclaré qu'il « regrette profondément » de s'être appuyé sur ChatGPT « et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité ».

Le juge Castel a déclaré dans une ordonnance qu'il avait été confronté à « une circonstance sans précédent », une soumission légale remplie de « fausses décisions judiciaires, avec de fausses citations et de fausses citations internes ». Il a ordonné une audience le 8 juin pour discuter d'éventuelles sanctions.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Hey, lawtwitter - <br><br>Check out the last few entries on this docket. Trust me.<br><br>ChatGPT making up citations, notary fraud, this has it all. Oh and an incandescent federal judge.<a href="https://t.co/q0lWyPVM7m">https://t.co/q0lWyPVM7m</a></p>— Mike Dunford (@questauthority) <a href="https://twitter.com/questauthority/status/1662273759259295746?ref_src=twsrc%5Etfw">May 27, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Une technologie qui invente souvent des faits et des sources

ChatGPT a été lancé à la fin de 2022 et est devenu immédiatement un succès. Le chatbot fait partie d’une famille de nouvelles technologies appelées IA générative qui peuvent tenir des conversations qui sont si organiques et normales que parfois ChatGPT semble avoir une volonté propre. Mais la technologie est notoirement imprécise et invente souvent des faits et des sources pour des faits qui sont complètement faux. Le produit...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 28/05/2023 à 17:05
c'est pas l'IA qui est en cause mais bien la betise humaine de faire aveuglement confiance a une IA. toutjours avoir des moyens de verifications..
5  0 
Avatar de tatayo
Expert éminent sénior https://www.developpez.com
Le 29/05/2023 à 10:29
Citation Envoyé par Nym4x Voir le message
Ce n’est pas étonnant une fois de plus. Chatgpt ne répondra jamais «*je ne sais pas*» quitte à inventer des réponses rédigées de façon très convaincantes.
Du coup il/elle/ça* peut se lancer dans la politique.

Tatayo.

* Rayer les mentions inutiles
4  0 
Avatar de maltyxx
Futur Membre du Club https://www.developpez.com
Le 25/03/2026 à 21:14
L'article met le doigt sur quelque chose de fondamental que beaucoup d'équipes IA découvrent trop tard : la productivité promise par l'IA générative s'évapore souvent dans le coût de vérification.

Ce paradoxe n'est pas propre au droit. On l'observe dans tous les secteurs où la précision est critique. Un LLM qui produit du contenu plausible mais faux à 5% du temps devient un fardeau si le domaine est à enjeux élevés : l'expert doit tout relire, et il le fait désormais avec moins de concentration car il pense "l'IA a déjà vérifié".

Ce qu'on a appris dans nos déploiements d'IA locale sur des données métier sensibles :
- L'IA est rentable uniquement sur les tâches à faible coût d'erreur ou à haute fréquence avec vérification par échantillonnage
- Dès que la vérification doit être exhaustive, le ROI s'effondre sauf si l'IA réduit le temps de lecture de façon significative (structuration, tri, résumé)
- La RAG (Retrieval-Augmented Generation) sur une base documentaire maîtrisée réduit drastiquement les hallucinations vs. un modèle "en plein air"

En droit, la vraie valeur serait peut-être moins dans la génération que dans la recherche et la structuration de l'information — des tâches où les risques d'hallucination sont plus maîtrisables.
4  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 30/05/2023 à 12:30
c'est le 1er d'une longue série et ca ne va pas s'arrêter.

aujourd'hui les entreprises veulent de la quantité au détriment de la qualité.
ca va être la foire à la saucisse en informatique aussi quand on aura des logiciels buggé avec pleins de failles car c'est michu comptable qui gère désormais la dsi avec chatgpt. et c'est myriam rh qui gere la compta avec chatgpt et enfin micheline la femme de ménage qui fait la rh avec chatgpt.
Moi ancien dev je serais désormais devenue chirurgien ou ingénieur nucléaire grâce a chatgpt.
3  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 01/06/2023 à 10:23
Ah Ah Ah, je me marre.
La naïveté d'un avocat qui n'a pas compris comment fonctionne ChatGPT et n'a pas fait de tests pour valider l'outil.
ChatGPT affabule sans le savoir puisque, sans conscience, il ne sait rien, ce n'est plus un scoop.

Expliquez-moi par quel mystère il pourrait en être autrement avec la prédiction statistique qui ne comprend pas la sémantique des mots qu'elle assemble ?
3  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 26/06/2023 à 11:02
Citation Envoyé par totozor Voir le message
Tout dépend de la taille du cabinet mais 5000$ peut être faible, non?
Ouais c'est ce que je pensais aussi mais de ce que j'ai lu c'est plus symbolique qu'autre chose.
En dehors de ça ça va beaucoup plus loin. Ils ont du présenter des excuses écrites à toutes les personnes cités dans l'affaire, le procès a été très médiatisé ce qui a fait une très mauvaise pub aux avocats et au cabinet, ils risquent de se faire radier et ont définitivement perdu le procès.

De plus leurs clients peuvent les poursuivre pour faute professionnelle. Bref ils sont vraiment pas sorti d'affaire.
3  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 15:08
En tant que Juriste je peux vous dire qu'on utilisera jamais ça dans ma boîte, on a testé le produit Lexis, c'est juste un index de recherche qui parle.

J'ai testé Ordalie c'est du même acabit, ils règlent le problème des sources en adoptant le parti pris de ne pas présenter de source (ce qui est le truc le plus débile à faire dans le monde juridique) et de répondre en étant le plus évasif possible. Si je lui demande comment transformer une SCI en SAS et vice versa le truc répond la même chose. Game over puisque du coup ça n'est même pas pour le moment au niveau d'article écris par des juniors.

Pour les particuliers c'est encore plus dangereux puisqu'avant de vouloir une réponse, il faut déjà savoir quoi demander
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/11/2025 à 0:36
Remplacez le jargon des avocats par celui des développeurs et vous aurez un autre article criant de vérité :
L’automatisation du développement logiciel

Ce que révèle cette crise, c’est la mutation d’un métier fondé sur la précision, la nuance et la responsabilité. L’usage d’outils comme GPT, Claude ou Copilot promet de gagner du temps, d’améliorer la clarté ou de simplifier la recherche de code. Mais le revers de la médaille, c’est la perte du contrôle intellectuel.

Là où le développeur devrait interpréter, il se contente parfois de recopier. Là où il devrait peser chaque instruction, il laisse l’algorithme formuler des généralités verbeuses. Le « slop coding » n’est pas qu’un problème de style : il est la preuve d’une déresponsabilisation progressive, d’un glissement où le code devient une simple sortie de modèle statistique.

Et dans le domaine logiciel, une erreur de raisonnement ou une valeur inventée ne se corrige pas comme une coquille dans un e-mail : elle peut fausser une décision, nuire à un client, voire porter atteinte à la société.
Pas plus tard que vendredi je parlais avec mes collègues de faire la distinction entre ceux qui sont rigoureux et ceux qui ne le sont pas :
  • les rigoureux peuvent tirer de l'IA les principaux avantages, car leur rigueur s'assure qu'ils vérifient derrière et comprennent ce qu'ils font, l'IA peut alors faire gagner un peu de temps sur les parties à écrire qu'on maîtrise déjà (peu de temps de vérification nécessaire) ou beaucoup pour les juniors qui peuvent focaliser leur temps d'apprentissage sur ce qui marche (moins de recherches infructueuses, qui peuvent apprendre des trucs mais moins pertinentes à l'instant T), et pour le reste rend surtout le job plus fun
  • les non-rigoureux par contre ont toutes les chances de donner une fausse impression de gros coup de pouce sur le court terme, en se contentant de copier sans vraiment réfléchir à ce qu'ils font, donnant l'impression qu'ils exploitent mieux l'IA alors qu'en fait les conséquences néfastes ne s'en ressentiront que plus tard, introduisant des coûts qui gomment les avantages illusoires de court terme. Quant au long terme, à force de se laisser aller à l'IA, ils ne forgeront pas leur propre expertise, se contentant de rester dépendants d'outils qu'ils ne maîtrisent pas et de stagner à leur niveau. Rendant le renouvellement des générations de dévs précaire.


En tant que développeurs, c'est à nous de nous assurer que nos juniors et nos employeurs ne tombent pas dans le panneau.

Pour les ingénieurs français, inscrits au répertoire des Ingénieurs et Scientifiques de France (IESF), il en va de notre responsabilité d'informer et de former :
https://www.iesf.fr/752_p_49680/char...ingenieur.html
Citation Envoyé par Charte IESF
En tant que membres d’un collectif de travail, l'ingénieur et le scientifique :
  • se mettent au service de leurs commanditaires et les informent des risques et contraintes (sociaux, environnementaux, économiques) des solutions proposées (Sens du service),
  • ...
  • participent à l'adaptation des activités de leur collectif de travail aux évolutions de la société et de l’environnement (Agilité),
  • encouragent la montée en compétences techniques et scientifiques de leurs collaborateurs et équipes (Management),
  • travaillent méthodiquement afin d’assurer la traçabilité des résultats et des données qui fondent les décisions de leur collectif de travail (Transparence),
  • participent activement à la gouvernance de leur collectif de travail (Engagement),
  • ...
  • signalent, de bonne foi et de manière désintéressée, les risques et les atteintes graves envers les droits humains, les libertés fondamentales, la santé et la sécurité des personnes, ainsi que l’environnement, résultant des activités de leur collectif de travail (Intégrité).
Citation Envoyé par Charte IESF
En tant que membres de la société toute entière, l’ingénieur et le scientifique :
  • ...
  • adoptent une posture active dans la société en éclairant l'opinion publique sur les problématiques qui nécessitent une vision de l'ingénieur ou du scientifique (Citoyenneté),
  • transmettent leur savoir scientifique et leur expérience, en les rendant accessibles au plus grand nombre (Vulgarisation),
  • ...
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 10/02/2026 à 11:10
Rien n'est perdu... Aux USA, le client pourra traîner en justice son avocat, exiger et obtenir plusieurs dizaines de millions de dommages et intérêts de sa part...

Et vous savez la meilleure? Il va recevoir les offres spontanées de centaines d'avocats prêts à faire rendre gorge à leur confrère amoureux transit de l'IA plutôt que d'être sérieux dans son travail
3  0 
Avatar de Delias
Modérateur https://www.developpez.com
Le 18/08/2023 à 12:07
ChatGPT et ses conseurs ne font qu'aligner les mots (voir des parties de mots) de la manière la plus probable qu'il soit. Ce sont un outils statistique à grande échelle.
En concéquence il y a zéro réfléxion, logique ou esprit critique dans ce qu'ils écrivent, sauf de parraître le plus plausible qu'il soit car l'ordre des mots est quasi parfaite.

Et les IA ferront comment quand il n'y aura plus de données d'entrainement générée par des humains?

Il est grand temps que cette bulle spéculative crève
2  0