IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des avocats reprochent à ChatGPT de les avoir poussés à citer une jurisprudence erronée,
Ils risquent de lourdes sanctions pour avoir fait aveuglément confiance au chatbot

Le , par Bill Fassinou

1PARTAGES

9  0 
Des avocats américains blâment ChatGPT après que le chatbot d'IA d'OpenAI les induit en erreur en créant de toutes pièces de fausses affaires juridiques. Alors qu'ils risquent de lourdes sanctions pour avoir fait aveuglément confiance à ChatGPT et cité ses "hallucinations" lors d'un procès, les avocats demandent la clémence du tribunal et blâment le chatbot d'IA pour ses irrégularités. L'affaire relance le débat sur la présentation de ChatGPT comme un potentiel remplaçant des avocats et des juges. Elle démontre en outre que les hallucinations du chatbot d'IA d'OpenAI peuvent avoir de graves conséquences sur les personnes et la société en général.

Avec les progrès majeurs dans le domaine de l'IA et du traitement du langage naturel (NLP), le potentiel des technologies d'IA à remplacer les professionnels humains dans différents domaines fait l'objet d'un débat croissant. Le secteur juridique n'échappe pas à ce débat. Par exemple, ChatGPT, le puissant modèle de langage développé par OpenAI, s'est avéré prometteur dans la fourniture de conseils juridiques et de réponses à des questions juridiques. Cela dit, il existe des arguments pour et contre le remplacement des avocats par ChatGPT. Mais les récents scandales suscités par l'utilisation de ChatGPT par les avocats montrent qu'il est loin d'être prêt.

Dans le cadre d'un procès contre une compagnie aérienne aux États-Unis, l'avocat Steven Schwartz a cité six affaires fictives générées par ChatGPT. Il a fait référence à d'anciennes affaires judiciaires qu'il croyait réelles, mais qui avaient en effet été inventées par le chatbot d'IA. Il a reconnu avoir utilisé ChatGPT pour rechercher des jurisprudences pour les utiliser dans le cadre du procès intenté par un client contre la compagnie aérienne colombienne Avianca pour une blessure subie lors d'un vol en 2019. ChatGPT a suggéré des cas d'accidents aériens que Schwartz n'avait pas pu trouver avec les méthodes habituelles utilisées par son cabinet d'avocats.


L'avocat les a inscrits ces affaires dans son mémoire juridique, mais n'a pas pris la peine de vérifier l’authenticité des sources. Le problème est que plusieurs de ces cas n'étaient pas réels ou impliquaient des compagnies aériennes qui n'existaient pas. Résultat, Schwartz et son employeur se sont retrouvés en difficulté devant le juge lorsqu'il s'est avéré que les données fournies par ChatGPT étaient fausses et ils ont été critiqués pour le laxisme dont ils ont fait preuve. Le juge a qualifié cette affaire d'inédite et de trompeuse, mais a également ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle.

Le juge fédéral de l'affaire, Kevin Castel, a en outre dénoncé les dangers de l’utilisation de l’IA dans le domaine juridique, et a appelé à une réglementation plus stricte pour éviter les abus et les erreurs. Il a envisagé des sanctions à l'encontre de Schwartz et de ses associés, mais a donné une chance à Schwartz de s'expliquer. Ainsi, le 8 juin, Schwartz, son confrère Peter LoDuca et le cabinet d'avocats ont comparu devant le juge Castel afin de justifier les raisons pour lesquelles ils ne devraient pas être sanctionnés. Lors de l'audience, Schwartz a tenté de rejeter la faute sur ChatGPT, affirmant que le chatbot d'IA d'OpenAI l'a lamentablement induit en erreur.

Schwartz a déclaré qu'il pensait à tort que ChatGPT obtenait ces cas d'une source à laquelle lui ou son cabinet n'avait pas accès. « Je n'avais pas compris que ChatGPT pouvait fabriquer des cas », a déclaré Schwartz. Cet argument semble un peu tiré par les cheveux, car les problèmes liés à l'utilisation de ChatGPT dans le domaine juridique, et d'autres, sont largement documentés. Le juge Castel a semblé à la fois déconcerté et troublé par cet événement inhabituel. Il était aussi déçu que les avocats n'aient pas agi rapidement pour corriger les fausses citations juridiques lorsqu'ils ont été alertés du problème par les avocats d'Avianca et par le tribunal.

Avianca aurait signalé la jurisprudence erronée dans un document déposé en mars. Castel a confronté Schwartz à un cas juridique inventé par ChatGPT. Il s'agissait au départ d'une affaire de décès injustifiée intentée par une femme contre une compagnie aérienne, qui s'est ensuite transformée en une action en justice concernant un homme qui a manqué un vol pour New York et a été contraint d'engager des dépenses supplémentaires. « Pouvons-nous convenir qu'il s'agit d'un charabia juridique ? », a demandé Castel. Schwartz a déclaré qu'il pensait à tort que cette présentation confuse résultait d'extraits de différentes parties de l'affaire.

Lorsque Castel a terminé son interrogatoire, il a demandé à Schwartz s'il avait quelque chose à ajouter. « Je voudrais m'excuser sincèrement », a répondu Schwartz. Il a déclaré avoir souffert personnellement et professionnellement de cette bévue et qu'il se sentait "embarrassé, humilié et extrêmement plein de remords". Il a ajouté que lui-même et le cabinet où il travaillait avaient mis en place des mesures de protection pour éviter qu'une telle situation ne se reproduise. LoDuca, un autre avocat qui a travaillé sur l'affaire et qui a aussi été auditionné, a déclaré qu'il faisait confiance à Schwartz et qu'il n'avait pas suffisamment examiné ce qu'il avait compilé.


Après que le juge a lu à haute voix des extraits d'une affaire citée pour montrer à quel point il était facile de discerner qu'il s'agissait de "charabia", LoDuca a déclaré : « il ne m'est jamais venu à l'esprit que ce n'était pas le cas. Il ne m'est jamais venu à l'esprit qu'il s'agissait d'une affaire bidon ». Ronald Minkoff, avocat au cabinet d'avocats qui emploie Schwartz, a déclaré au juge que la soumission "résultait d'une négligence et non de la mauvaise foi" et ne devrait pas entraîner de sanctions. Il a ajouté que les avocats ont toujours eu du mal à s'adapter à la technologie, en particulier aux nouvelles technologies, "et que cela ne s'arrange pas".

« Schwartz, qui fait à peine des recherches au niveau fédéral, a choisi d'utiliser cette nouvelle technologie. Il pensait avoir affaire à un moteur de recherche standard. Ce qu'il a fait, c'est jouer avec des munitions réelles », a déclaré Minkoff. Daniel Shin, professeur associé et directeur adjoint de la recherche au Center for Legal and Court Technology de la William & Mary Law School, a expliqué qu'il avait présenté l'affaire Avianca lors d'une conférence au début du mois qui a attiré des dizaines de participants en personne et en ligne provenant de tribunaux fédéraux et d'État des États-Unis, y compris du tribunal fédéral de Manhattan.

Shin a déclaré que le sujet avait suscité le choc et la perplexité lors de la conférence. « Nous parlons du district sud de New York, le district fédéral qui s'occupe des grandes affaires, du 11 septembre à tous les grands crimes financiers. Il s'agit du premier cas documenté de faute professionnelle potentielle de la part d'un avocat utilisant l'IA générative », a déclaré Shin. Selon lui, l'affaire a démontré que les avocats n'avaient peut-être pas compris le fonctionnement de ChatGPT, qui a tendance à halluciner et à parler de choses fictives d'une manière qui semble réaliste, mais qui ne l'est pas. Le juge se prononcera sur les sanctions à une date ultérieure.

Selon les critiques, bien que le ChatGPT soit prometteur dans sa capacité à fournir des conseils juridiques et des réponses à des questions juridiques, il n'est pas encore assez avancé pour remplacer entièrement les avocats humains. Cependant, il peut jouer un rôle précieux en tant qu'outil pour aider les avocats dans divers aspects de leur travail, tels que la recherche juridique, l'analyse de documents, l'assistance aux clients et la rédaction. En exploitant les capacités de ChatGPT, les avocats pourraient améliorer leur efficacité, gagner du temps et améliorer l'ensemble de leurs services juridiques. Ils estiment toutefois que les avocats doivent rester vigilants lorsqu'ils utilisent ChatGPT.

Mais il est important de reconnaître les limites de ChatGPT et de s'assurer que les avocats humains continuent à fournir le jugement, l'expertise et les considérations éthiques nécessaires à la profession juridique.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

Un juge ordonne que tous les contenus générés par l'IA soient déclarés et contrôlés, après qu'un avocat a laissé ChatGPT lui fournir des précédents juridiques inventés de toutes pièces

ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres, des professeurs estiment que cela pourrait signer la fin des méthodes d'enseignement traditionnelles

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 14/06/2023 à 20:01
Ce n'est pas viable, les gens ne participeront plus à cette société. C'est déjà le début avec la grande démission.

On va vers un système type favelas/vs quartier sécurisés. Dans une favela, il y a une économie parallèle, le terrain est "squatté" par les habitants qui y construisent leur maison, la favela a ses propres commerces, une économie parallèle. Les gens n'ont pas le choix; ils sont hors la loi, mais à quoi bon respecter la loi quand il ne reste que les devoirs et plus les droits ?
5  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 13/06/2023 à 7:53
Citation Envoyé par Bill Fassinou Voir le message
Des avocats américains blâment ChatGPT après que le chatbot d'IA d'OpenAI les induit en erreur en créant de toutes pièces de fausses affaires juridiques.
C'est marrant ça les avocats ne reprochent probablement jamais aux accusés d'avoir fait aveuglément confiance à quelqu'un.
Eux ont fait confiance à une machine sans même se donner le mal de vérifier les informations qu'ils allaient utiliser ensuite... Et après ils mettent tout sur le dos de ChatGPT, outil bien connu pour être un assistant juridique
ChatGPT a suggéré des cas d'accidents aériens que Schwartz n'avait pas pu trouver avec les méthodes habituelles utilisées par son cabinet d'avocats.
Et pour cause.
« Pouvons-nous convenir qu'il s'agit d'un charabia juridique ? », a demandé Castel. Schwartz a déclaré qu'il pensait à tort que cette présentation confuse résultait d'extraits de différentes parties de l'affaire.
[...]
Après que le juge a lu à haute voix des extraits d'une affaire citée pour montrer à quel point il était facile de discerner qu'il s'agissait de "charabia", LoDuca a déclaré : « il ne m'est jamais venu à l'esprit que ce n'était pas le cas. Il ne m'est jamais venu à l'esprit qu'il s'agissait d'une affaire bidon ».
Quand les représentants de la loi dénonce son charabia, je suis ému.
Ronald Minkoff, avocat au cabinet d'avocats qui emploie Schwartz, a déclaré au juge que la soumission "résultait d'une négligence et non de la mauvaise foi" et ne devrait pas entraîner de sanctions.
Cet argument fait jurisprudence? Ca serait interressant parce que je ne suis pas sur que tous les coupables condamnés ont fait ça par mauvaise foi.
Il a ajouté que les avocats ont toujours eu du mal à s'adapter à la technologie, en particulier aux nouvelles technologies, "et que cela ne s'arrange pas".
C'est aussi le cas pour certains de mes collègues, en réunion ils utilisent du papier et un crayon plutot que leur ordinateur. Quand tu as la vie de gens entre tes mains tu es prié d'utiliser des outils que tu maitrises.
Combien d'années de formation ont suivis ces gens? Quel est leur taux horaire? Tout ça pour jouer aux apprentis chimistes?

Selon les critiques, bien que le ChatGPT soit prometteur dans sa capacité à fournir des conseils juridiques et des réponses à des questions juridiques, il n'est pas encore assez avancé pour remplacer entièrement les avocats humains. Cependant, il peut jouer un rôle précieux en tant qu'outil pour aider les avocats dans divers aspects de leur travail, tels que la recherche juridique, l'analyse de documents, l'assistance aux clients et la rédaction. En exploitant les capacités de ChatGPT, les avocats pourraient améliorer leur efficacité, gagner du temps et améliorer l'ensemble de leurs services juridiques. Ils estiment toutefois que les avocats doivent rester vigilants lorsqu'ils utilisent ChatGPT.
Tu veux utiliser ChatGPT?
Let's go, mais comme tu ne sais pas ce qu'il fait remet chacune de ses affirmation en doute, demande lui ses sources (ce pourquoi il est très mauvais). Sinon tu fais ton travail à l'ancienne.
3  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/06/2023 à 11:33
Citation Envoyé par walfrat Voir le message
Et tu tires ça d'ou ? "Les retraités s'investissent..." ? Quel part des retraités ça représente vraiment ?

Perso mes collègues, qui pourtant sont bon professionnels, sont très clair qu'ils ne travailleraient pas comme ils le font s'ils n'avaient pas besoin d'un taf.

En outre si on dit "la plupart travailleraient", est ce qu'on arriveraient à combler notre besoin en emploi.. disons "peu glorieux" ? Le ménage, les éboueurs, les égoutiers, les plombiers, la maintenance des chaines d'assemblage, la métallurgie, l'agriculture, le BTP. Voir même des jobs plus glorieux mais dur même la médecine, la police etc etc

Parce que j'ai aucun doute que quand il s'agit d'organiser des fêtes, des expositions, de l'entertainement, on aura des gens motivés, mais le reste, aura t'on vraiment suffisamment de gens motivés pour tous ces métiers plus "durs" pour couvrir l'ensemble du pays, plutôt que juste toucher le revenu universel ?
puisqu'on en est dans les utopie. si demain y'a très peu d'emplois nécessaire
suffit juste de réduire le nombre d'heure travaillé ou bien mettre la retraite plus tôt
ainsi on garde le même système (travail salaire) tout en maintenant le "pleins emplois".

par exemple travailler faire des semaines de 15h ou bosser 35h que 6 mois dans l'année double le nombre de personnel nécessaire pour les taches non automatisable.
ou partir en retraite à 40ans
ou faire un mix des 2 évidements.

le revenus universelle c'est bidon, jamais rien ne pourra remplacer le capitalisme (travail-salaire-monté du capitale)
on peut soit:
1) créer un monde avec 99% de pauvres dans des ghettos qui torcherons le cul des riches et 1% de riches dans des villas fortifié.
2) créer un monde plus égalitaire ou l'on réduit le nombre d'heure travaillé pour que chacun bosse et contribue à la société.
et limité les capitaux des plus riches (au delà d'une certaine somme c'est à l'état).

actuellement on se dirige vers la 1ere hypothèse. 1% de la pop détiendra bientôt 100% des entreprises et des logements et les autres crèvent sous un pont en silence.
c'est le gros problème de notre Monopoly mondial, les capitaux ne tourne pas et ne sont pas redistribué aux nouveaux arrivant. On se retrouve avec des dynastie familiales qui ont tous.

https://www.lemonde.fr/les-decodeurs...8_4355770.html
quand mes parents sont née ils pouvait encore avoir quelques miettes moi c'est impossible, jamais je pourrais m'acheter un simple appart à Paris par exemple et même si demain je lance une startup qui fait un gros succès, jamais je pourrais atteindre la fortune de grosses dynasties car c'est de l'accumulation d'héritage sur plusieurs générations.

que les riches soit riches c'est pas un problème, le problème c'est que chacun devrait pouvoir avoir assez d'argent pour se nourrir, s'acheter/se construire un chez soit sans extravagance, se payer quelques loisirs dans l'année et épargner un peu tous les mois.
le reste c'est très superficiel.
3  0 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 14/06/2023 à 13:50
Citation Envoyé par calvaire Voir le message
que les riches soit riches c'est pas un problème, le problème c'est que chacun devrait pouvoir avoir assez d'argent pour se nourrir, s'acheter/se construire un chez soit sans extravagance, se payer quelques loisirs dans l'année et épargner un peu tous les mois.
Sauf que ce n'est pas le système économique actuel. Il faut repenser la redistribution d'une façon ou d'une autre.
Même aux États-Unis les jeunes le disent de plus en plus. Parce que c'était possible de croire au "rêve américain" jusque dans les années 80 dans tous les pays occidentaux. Tu devenais adulte, tu te trouvais un boulot et même avec un salaire moyen, tu pouvais t'acheter une maison, avoir une famille, avec un train de vie qui correspond à ce que tu décris. Et à l'époque ça ressemblait au niveau 0 de l'ambition, tellement ça semblait normal. Aujourd'hui c'est un rêve inatteignable.

Le plus absurde dans tout ça c'est que les 1% les plus riches, n'ont plus aucun gain au niveau de leur qualité de vie depuis très longtemps. Si Bernard Arnaud (par exemple) se retrouvait du jour au lendemain avec 1% de sa fortune actuelle (ça serait plus d'1.5Milliard quand même) sa vie, ni celle de sa descendance actuelle ne changerait pas d'un iota.
3  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 21/07/2023 à 18:56
En parfaite contradiction avec
https://intelligence-artificielle.de...ont-en-declin/
3  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 08/08/2023 à 20:36
[cinisme]

Le petit personnel se rebelle maintenant ? Dans quel monde on est. Déjà qu'il sont payés...

[/cinisme]

Encore heureux qu'ils réagissent. Malheureusement, je pense qu'ils ont peu de chance d'obtenir quelque chose, c'est ce qui a probablement motivé le choix du Kenya.
3  0 
Avatar de Nym4x
Membre averti https://www.developpez.com
Le 20/08/2023 à 8:07
Passer le test de codage de google ne vaut rien car il est bien connu et l’ia a été entraînée dessus... Développer demande de la logique afin de trouver une solution à un problème spécifique pas de pisser du code pour faire du crud où il existe déjà des générateurs de code d’ailleurs. Et moi au niveau des tests de chat gpt cela n’est pas concluant:
- exemple 1: je lui donne une suite de nombre suivant une logique et lui demande de me donner les termes suivants. Échec total et même en lui donnant la logique, chatgpt à du s’y reprendre à 3 fois
Code : Sélectionner tout
1
2
3
Moi: (1,2,3),(3,4,7),(5,6,11) qu’elle est la suite logique?
ChatGPT: La suite semble suivre un modèle où chaque terme est la somme des deux termes précédents. En suivant ce modèle, la prochaine valeur serait 6 + 11 = 17. Donc, la suite logique serait : 1, 2, 3, 3, 4, 7, 5, 6, 11, 17.
- exemple 2: trouver l’intrus avec une liste d’animaux() incluant un seul animal non mammifère. Idem échec de chatgpt.

Code : Sélectionner tout
1
2
3
Moi: Quel est l’intrus: chat, vache, dauphin, baleine, truite
ChatGPT: L'intrus dans la liste est "chat". Les autres animaux mentionnés sont tous des mammifères marins, tandis que le chat est un mammifère terrestre.
Par contre chatgpt apprend et les jours suivants il donnait les bonnes réponses…
Moralité : en utilisant et corrigeant les réponses de chatgpt vous travaillez gratuitement pour openai et transférez vos connaissances voir celle de votre entreprise à openai
3  0