IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des avocats reprochent à ChatGPT de les avoir poussés à citer une jurisprudence erronée,
Ils risquent de lourdes sanctions pour avoir fait aveuglément confiance au chatbot

Le , par Bill Fassinou

1PARTAGES

9  0 
Des avocats américains blâment ChatGPT après que le chatbot d'IA d'OpenAI les induit en erreur en créant de toutes pièces de fausses affaires juridiques. Alors qu'ils risquent de lourdes sanctions pour avoir fait aveuglément confiance à ChatGPT et cité ses "hallucinations" lors d'un procès, les avocats demandent la clémence du tribunal et blâment le chatbot d'IA pour ses irrégularités. L'affaire relance le débat sur la présentation de ChatGPT comme un potentiel remplaçant des avocats et des juges. Elle démontre en outre que les hallucinations du chatbot d'IA d'OpenAI peuvent avoir de graves conséquences sur les personnes et la société en général.

Avec les progrès majeurs dans le domaine de l'IA et du traitement du langage naturel (NLP), le potentiel des technologies d'IA à remplacer les professionnels humains dans différents domaines fait l'objet d'un débat croissant. Le secteur juridique n'échappe pas à ce débat. Par exemple, ChatGPT, le puissant modèle de langage développé par OpenAI, s'est avéré prometteur dans la fourniture de conseils juridiques et de réponses à des questions juridiques. Cela dit, il existe des arguments pour et contre le remplacement des avocats par ChatGPT. Mais les récents scandales suscités par l'utilisation de ChatGPT par les avocats montrent qu'il est loin d'être prêt.

Dans le cadre d'un procès contre une compagnie aérienne aux États-Unis, l'avocat Steven Schwartz a cité six affaires fictives générées par ChatGPT. Il a fait référence à d'anciennes affaires judiciaires qu'il croyait réelles, mais qui avaient en effet été inventées par le chatbot d'IA. Il a reconnu avoir utilisé ChatGPT pour rechercher des jurisprudences pour les utiliser dans le cadre du procès intenté par un client contre la compagnie aérienne colombienne Avianca pour une blessure subie lors d'un vol en 2019. ChatGPT a suggéré des cas d'accidents aériens que Schwartz n'avait pas pu trouver avec les méthodes habituelles utilisées par son cabinet d'avocats.


L'avocat les a inscrits ces affaires dans son mémoire juridique, mais n'a pas pris la peine de vérifier l’authenticité des sources. Le problème est que plusieurs de ces cas n'étaient pas réels ou impliquaient des compagnies aériennes qui n'existaient pas. Résultat, Schwartz et son employeur se sont retrouvés en difficulté devant le juge lorsqu'il s'est avéré que les données fournies par ChatGPT étaient fausses et ils ont été critiqués pour le laxisme dont ils ont fait preuve. Le juge a qualifié cette affaire d'inédite et de trompeuse, mais a également ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle.

Le juge fédéral de l'affaire, Kevin Castel, a en outre dénoncé les dangers de l’utilisation de l’IA dans le domaine juridique, et a appelé à une réglementation plus stricte pour éviter les abus et les erreurs. Il a envisagé des sanctions à l'encontre de Schwartz et de ses associés, mais a donné une chance à Schwartz de s'expliquer. Ainsi, le 8 juin, Schwartz, son confrère Peter LoDuca et le cabinet d'avocats ont comparu devant le juge Castel afin de justifier les raisons pour lesquelles ils ne devraient pas être sanctionnés. Lors de l'audience, Schwartz a tenté de rejeter la faute sur ChatGPT, affirmant que le chatbot d'IA d'OpenAI l'a lamentablement induit en erreur.

Schwartz a déclaré qu'il pensait à tort que ChatGPT obtenait ces cas d'une source à laquelle lui ou son cabinet n'avait pas accès. « Je n'avais pas compris que ChatGPT pouvait fabriquer des cas », a déclaré Schwartz. Cet argument semble un peu tiré par les cheveux, car les problèmes liés à l'utilisation de ChatGPT dans le domaine juridique, et d'autres, sont largement documentés. Le juge Castel a semblé à la fois déconcerté et troublé par cet événement inhabituel. Il était aussi déçu que les avocats n'aient pas agi rapidement pour corriger les fausses citations juridiques lorsqu'ils ont été alertés du problème par les avocats d'Avianca et par le tribunal.

Avianca aurait signalé la jurisprudence erronée dans un document déposé en mars. Castel a confronté Schwartz à un cas juridique inventé par ChatGPT. Il s'agissait au départ d'une affaire de décès injustifiée intentée par une femme contre une compagnie aérienne, qui s'est ensuite transformée en une action en justice concernant un homme qui a manqué un vol pour New York et a été contraint d'engager des dépenses supplémentaires. « Pouvons-nous convenir qu'il s'agit d'un charabia juridique ? », a demandé Castel. Schwartz a déclaré qu'il pensait à tort que cette présentation confuse résultait d'extraits de différentes parties de l'affaire.

Lorsque Castel a terminé son interrogatoire, il a demandé à Schwartz s'il avait quelque chose à ajouter. « Je voudrais m'excuser sincèrement », a répondu Schwartz. Il a déclaré avoir souffert personnellement et professionnellement de cette bévue et qu'il se sentait "embarrassé, humilié et extrêmement plein de remords". Il a ajouté que lui-même et le cabinet où il travaillait avaient mis en place des mesures de protection pour éviter qu'une telle situation ne se reproduise. LoDuca, un autre avocat qui a travaillé sur l'affaire et qui a aussi été auditionné, a déclaré qu'il faisait confiance à Schwartz et qu'il n'avait pas suffisamment examiné ce qu'il avait compilé.


Après que le juge a lu à haute voix des extraits d'une affaire citée pour montrer à quel point il était facile de discerner qu'il s'agissait de "charabia", LoDuca a déclaré : « il ne m'est jamais venu à l'esprit que ce n'était pas le cas. Il ne m'est jamais venu à l'esprit qu'il s'agissait d'une affaire bidon ». Ronald Minkoff, avocat au cabinet d'avocats qui emploie Schwartz, a déclaré au juge que la soumission "résultait d'une négligence et non de la mauvaise foi" et ne devrait pas entraîner de sanctions. Il a ajouté que les avocats ont toujours eu du mal à s'adapter à la technologie, en particulier aux nouvelles technologies, "et que cela ne s'arrange pas".

« Schwartz, qui fait à peine des recherches au niveau fédéral, a choisi d'utiliser cette nouvelle technologie. Il pensait avoir affaire à un moteur de recherche standard. Ce qu'il a fait, c'est jouer avec des munitions réelles », a déclaré Minkoff. Daniel Shin, professeur associé et directeur adjoint de la recherche au Center for Legal and Court Technology de la William & Mary Law School, a expliqué qu'il avait présenté l'affaire Avianca lors d'une conférence au début du mois qui a attiré des dizaines de participants en personne et en ligne provenant de tribunaux fédéraux et d'État des États-Unis, y compris du tribunal fédéral de Manhattan.

Shin a déclaré que le sujet avait suscité le choc et la perplexité lors de la conférence. « Nous parlons du district sud de New York, le district fédéral qui s'occupe des grandes affaires, du 11 septembre à tous les grands crimes financiers. Il s'agit du premier cas documenté de faute professionnelle potentielle de la part d'un avocat utilisant l'IA générative », a déclaré Shin. Selon lui, l'affaire a démontré que les avocats n'avaient peut-être pas compris le fonctionnement de ChatGPT, qui a tendance à halluciner et à parler de choses fictives d'une manière qui semble réaliste, mais qui ne l'est pas. Le juge se prononcera sur les sanctions à une date ultérieure.

Selon les critiques, bien que le ChatGPT soit prometteur dans sa capacité à fournir des conseils juridiques et des réponses à des questions juridiques, il n'est pas encore assez avancé pour remplacer entièrement les avocats humains. Cependant, il peut jouer un rôle précieux en tant qu'outil pour aider les avocats dans divers aspects de leur travail, tels que la recherche juridique, l'analyse de documents, l'assistance aux clients et la rédaction. En exploitant les capacités de ChatGPT, les avocats pourraient améliorer leur efficacité, gagner du temps et améliorer l'ensemble de leurs services juridiques. Ils estiment toutefois que les avocats doivent rester vigilants lorsqu'ils utilisent ChatGPT.

Mais il est important de reconnaître les limites de ChatGPT et de s'assurer que les avocats humains continuent à fournir le jugement, l'expertise et les considérations éthiques nécessaires à la profession juridique.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

Un juge ordonne que tous les contenus générés par l'IA soient déclarés et contrôlés, après qu'un avocat a laissé ChatGPT lui fournir des précédents juridiques inventés de toutes pièces

ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres, des professeurs estiment que cela pourrait signer la fin des méthodes d'enseignement traditionnelles

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 14/06/2023 à 20:01
Ce n'est pas viable, les gens ne participeront plus à cette société. C'est déjà le début avec la grande démission.

On va vers un système type favelas/vs quartier sécurisés. Dans une favela, il y a une économie parallèle, le terrain est "squatté" par les habitants qui y construisent leur maison, la favela a ses propres commerces, une économie parallèle. Les gens n'ont pas le choix; ils sont hors la loi, mais à quoi bon respecter la loi quand il ne reste que les devoirs et plus les droits ?
5  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/10/2023 à 15:44
Citation Envoyé par Bruno Voir le message

Partagez-vous le point de vue de Millidge selon lequel le terme de confabulation est plus approprié que celui d’hallucination pour décrire le phénomène de fausses informations, mais plausibles par les LLM ?
Non. Ces daubes sortent des résultats qui n'existent pas, un point c'est tout.

Il bosse dans le domaine alors il essaye de juste de nous vendre sa tambouille en adoucissant le fait que ces IA sont juste imparfaites.
5  1 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/12/2023 à 12:11
Citation Envoyé par Ryu2000 Voir le message
C'est ce qu'il va se passer.

Il est probable que dans le futur 1 humain + 1 IA, réalisent plus de travail que 5 humains.
Il y aura besoin de moins d'humains pour réaliser la même quantité de travail.
L'IA fera gagner beaucoup de temps.
Oui mais dans quel but ? Produire plus ? Consommer plus ? Avec quelles ressources ? Comment des humains qui vont perdre leur emploi vont pouvoir acheter ce qui est vendu ? Dans un monde de plus en plus toxique pour les humains, quel progrès y a-t-il à chercher.

Je vais créer un équivalent au label bio pour l'IA, certifié humains de bout en bout.

Comme d'habitude, on va gagner en productivité, mais on en verra pas la couleur, ça va juste augmenter la charge de travail, et diminuer l'expertise, donc les salaires, et augmenter la réplicabilité des gens. Que du bonus pour les employeurs.
4  0