IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des avocats reprochent à ChatGPT de les avoir poussés à citer une jurisprudence erronée,
Ils risquent de lourdes sanctions pour avoir fait aveuglément confiance au chatbot

Le , par Bill Fassinou

1PARTAGES

9  0 
Des avocats américains blâment ChatGPT après que le chatbot d'IA d'OpenAI les induit en erreur en créant de toutes pièces de fausses affaires juridiques. Alors qu'ils risquent de lourdes sanctions pour avoir fait aveuglément confiance à ChatGPT et cité ses "hallucinations" lors d'un procès, les avocats demandent la clémence du tribunal et blâment le chatbot d'IA pour ses irrégularités. L'affaire relance le débat sur la présentation de ChatGPT comme un potentiel remplaçant des avocats et des juges. Elle démontre en outre que les hallucinations du chatbot d'IA d'OpenAI peuvent avoir de graves conséquences sur les personnes et la société en général.

Avec les progrès majeurs dans le domaine de l'IA et du traitement du langage naturel (NLP), le potentiel des technologies d'IA à remplacer les professionnels humains dans différents domaines fait l'objet d'un débat croissant. Le secteur juridique n'échappe pas à ce débat. Par exemple, ChatGPT, le puissant modèle de langage développé par OpenAI, s'est avéré prometteur dans la fourniture de conseils juridiques et de réponses à des questions juridiques. Cela dit, il existe des arguments pour et contre le remplacement des avocats par ChatGPT. Mais les récents scandales suscités par l'utilisation de ChatGPT par les avocats montrent qu'il est loin d'être prêt.

Dans le cadre d'un procès contre une compagnie aérienne aux États-Unis, l'avocat Steven Schwartz a cité six affaires fictives générées par ChatGPT. Il a fait référence à d'anciennes affaires judiciaires qu'il croyait réelles, mais qui avaient en effet été inventées par le chatbot d'IA. Il a reconnu avoir utilisé ChatGPT pour rechercher des jurisprudences pour les utiliser dans le cadre du procès intenté par un client contre la compagnie aérienne colombienne Avianca pour une blessure subie lors d'un vol en 2019. ChatGPT a suggéré des cas d'accidents aériens que Schwartz n'avait pas pu trouver avec les méthodes habituelles utilisées par son cabinet d'avocats.


L'avocat les a inscrits ces affaires dans son mémoire juridique, mais n'a pas pris la peine de vérifier l’authenticité des sources. Le problème est que plusieurs de ces cas n'étaient pas réels ou impliquaient des compagnies aériennes qui n'existaient pas. Résultat, Schwartz et son employeur se sont retrouvés en difficulté devant le juge lorsqu'il s'est avéré que les données fournies par ChatGPT étaient fausses et ils ont été critiqués pour le laxisme dont ils ont fait preuve. Le juge a qualifié cette affaire d'inédite et de trompeuse, mais a également ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle.

Le juge fédéral de l'affaire, Kevin Castel, a en outre dénoncé les dangers de l’utilisation de l’IA dans le domaine juridique, et a appelé à une réglementation plus stricte pour éviter les abus et les erreurs. Il a envisagé des sanctions à l'encontre de Schwartz et de ses associés, mais a donné une chance à Schwartz de s'expliquer. Ainsi, le 8 juin, Schwartz, son confrère Peter LoDuca et le cabinet d'avocats ont comparu devant le juge Castel afin de justifier les raisons pour lesquelles ils ne devraient pas être sanctionnés. Lors de l'audience, Schwartz a tenté de rejeter la faute sur ChatGPT, affirmant que le chatbot d'IA d'OpenAI l'a lamentablement induit en erreur.

Schwartz a déclaré qu'il pensait à tort que ChatGPT obtenait ces cas d'une source à laquelle lui ou son cabinet n'avait pas accès. « Je n'avais pas compris que ChatGPT pouvait fabriquer des cas », a déclaré Schwartz. Cet argument semble un peu tiré par les cheveux, car les problèmes liés à l'utilisation de ChatGPT dans le domaine juridique, et d'autres, sont largement documentés. Le juge Castel a semblé à la fois déconcerté et troublé par cet événement inhabituel. Il était aussi déçu que les avocats n'aient pas agi rapidement pour corriger les fausses citations juridiques lorsqu'ils ont été alertés du problème par les avocats d'Avianca et par le tribunal.

Avianca aurait signalé la jurisprudence erronée dans un document déposé en mars. Castel a confronté Schwartz à un cas juridique inventé par ChatGPT. Il s'agissait au départ d'une affaire de décès injustifiée intentée par une femme contre une compagnie aérienne, qui s'est ensuite transformée en une action en justice concernant un homme qui a manqué un vol pour New York et a été contraint d'engager des dépenses supplémentaires. « Pouvons-nous convenir qu'il s'agit d'un charabia juridique ? », a demandé Castel. Schwartz a déclaré qu'il pensait à tort que cette présentation confuse résultait d'extraits de différentes parties de l'affaire.

Lorsque Castel a terminé son interrogatoire, il a demandé à Schwartz s'il avait quelque chose à ajouter. « Je voudrais m'excuser sincèrement », a répondu Schwartz. Il a déclaré avoir souffert personnellement et professionnellement de cette bévue et qu'il se sentait "embarrassé, humilié et extrêmement plein de remords". Il a ajouté que lui-même et le cabinet où il travaillait avaient mis en place des mesures de protection pour éviter qu'une telle situation ne se reproduise. LoDuca, un autre avocat qui a travaillé sur l'affaire et qui a aussi été auditionné, a déclaré qu'il faisait confiance à Schwartz et qu'il n'avait pas suffisamment examiné ce qu'il avait compilé.


Après que le juge a lu à haute voix des extraits d'une affaire citée pour montrer à quel point il était facile de discerner qu'il s'agissait de "charabia", LoDuca a déclaré : « il ne m'est jamais venu à l'esprit que ce n'était pas le cas. Il ne m'est jamais venu à l'esprit qu'il s'agissait d'une affaire bidon ». Ronald Minkoff, avocat au cabinet d'avocats qui emploie Schwartz, a déclaré au juge que la soumission "résultait d'une négligence et non de la mauvaise foi" et ne devrait pas entraîner de sanctions. Il a ajouté que les avocats ont toujours eu du mal à s'adapter à la technologie, en particulier aux nouvelles technologies, "et que cela ne s'arrange pas".

« Schwartz, qui fait à peine des recherches au niveau fédéral, a choisi d'utiliser cette nouvelle technologie. Il pensait avoir affaire à un moteur de recherche standard. Ce qu'il a fait, c'est jouer avec des munitions réelles », a déclaré Minkoff. Daniel Shin, professeur associé et directeur adjoint de la recherche au Center for Legal and Court Technology de la William & Mary Law School, a expliqué qu'il avait présenté l'affaire Avianca lors d'une conférence au début du mois qui a attiré des dizaines de participants en personne et en ligne provenant de tribunaux fédéraux et d'État des États-Unis, y compris du tribunal fédéral de Manhattan.

Shin a déclaré que le sujet avait suscité le choc et la perplexité lors de la conférence. « Nous parlons du district sud de New York, le district fédéral qui s'occupe des grandes affaires, du 11 septembre à tous les grands crimes financiers. Il s'agit du premier cas documenté de faute professionnelle potentielle de la part d'un avocat utilisant l'IA générative », a déclaré Shin. Selon lui, l'affaire a démontré que les avocats n'avaient peut-être pas compris le fonctionnement de ChatGPT, qui a tendance à halluciner et à parler de choses fictives d'une manière qui semble réaliste, mais qui ne l'est pas. Le juge se prononcera sur les sanctions à une date ultérieure.

Selon les critiques, bien que le ChatGPT soit prometteur dans sa capacité à fournir des conseils juridiques et des réponses à des questions juridiques, il n'est pas encore assez avancé pour remplacer entièrement les avocats humains. Cependant, il peut jouer un rôle précieux en tant qu'outil pour aider les avocats dans divers aspects de leur travail, tels que la recherche juridique, l'analyse de documents, l'assistance aux clients et la rédaction. En exploitant les capacités de ChatGPT, les avocats pourraient améliorer leur efficacité, gagner du temps et améliorer l'ensemble de leurs services juridiques. Ils estiment toutefois que les avocats doivent rester vigilants lorsqu'ils utilisent ChatGPT.

Mais il est important de reconnaître les limites de ChatGPT et de s'assurer que les avocats humains continuent à fournir le jugement, l'expertise et les considérations éthiques nécessaires à la profession juridique.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

Un juge ordonne que tous les contenus générés par l'IA soient déclarés et contrôlés, après qu'un avocat a laissé ChatGPT lui fournir des précédents juridiques inventés de toutes pièces

ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres, des professeurs estiment que cela pourrait signer la fin des méthodes d'enseignement traditionnelles

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message

Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message

L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message

Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine

encore un article généré par l'IA
7  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2024 à 15:52
Moi si je dis, il faut bien que cambriole 25 maisons par ans, sinon je ne sais pas partir en vacances, je suis certains que ça finira mal pour moi. Mais lui, le Altman, la nouvelle coqueluche du moment, il peut se permettre de dire qu'il ne peut gagner des millions qu'en volant le travail des autres, et ça passe crème.
7  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0