IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un juge britannique estime que ChatGPT est « très utile » après l'avoir utilisé pour rédiger une décision
Et a déclaré que la technologie a un « réel potentiel »

Le , par Stéphane le calme

11PARTAGES

10  1 
Un juge de la Cour d’appel britannique a révélé qu’il avait utilisé ChatGPT, un chatbot basé sur l’intelligence artificielle, pour l’aider à rédiger une partie d’une décision de justice. Le juge Birss, spécialiste du droit de la propriété intellectuelle, a qualifié l’outil de génération de texte de « très utile » et a déclaré que la technologie a un « réel potentiel ».

Lord Justice Birss, spécialisé dans le droit de la propriété intellectuelle, a déclaré qu'il avait demandé à l'outil d'IA de fournir un résumé d'un domaine du droit et qu'il avait reçu un paragraphe qu'il jugeait acceptable comme réponse. Lors d’une conférence organisée par le Barreau, il a déclaré que les grands modèles linguistiques génératifs avaient un « réel potentiel ».

« Je pense que ce qui est le plus intéressant, c'est que vous pouvez demander à ces grands modèles linguistiques de résumer des informations. C’est utile et ce sera utilisé, d'ailleurs je peux vous dire que je l’ai utilisé », a-t-il déclaré. « J’assume l’entière responsabilité personnelle de ce que j’ai mis dans mon jugement, je n’essaie pas de confier la responsabilité à quelqu’un d’autre. Tout ce que cela faisait, c’était une tâche que j’étais sur le point d’accomplir et dont je connaissais la réponse et que je pouvais reconnaître comme acceptable ».

Il s’agit du premier cas connu d’utilisation de ChatGPT par un juge britannique pour écrire une partie d’un jugement. Cette pratique est controversée, car ChatGPT peut commettre de nombreuses erreurs.

Les scientifiques, les écrivains et d’autres professionnels ont déjà trouvé l’exactitude de ChatGPT peu fiable depuis son lancement l’année dernière, et il est devenu connu pour avoir un « problème d’hallucination » dans lequel de fausses informations sont générées.

Plus tôt cette année, ChatGPT a faussement accusé un professeur de droit américain en l'incluant dans une liste générée de juristes qui avaient harcelé sexuellement quelqu'un, citant un rapport inexistant du Washington Post.

ChatGPT a déjà induit en erreur des professionnels du droit

Il y a quelques mois, un avocat a utilisé ChatGPT pour générer et citer des affaires fictives dans un mémoire juridique, provoquant la fureur du juge et des sanctions potentielles. Lorsqu’on lui a demandé de fournir des copies des affaires citées, l’avocat s’est tourné à nouveau vers ChatGPT, qui a produit des détails complets sur les affaires inexistantes.

Le procès a commencé comme tant d'autres : un homme du nom de Roberto Mata a poursuivi la compagnie aérienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou lors d'un vol vers l'aéroport international Kennedy de New York.

Quand Avianca a demandé à un juge fédéral de Manhattan de rejeter l'affaire, les avocats de Mata se sont opposés avec véhémence, soumettant un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice pertinentes. Il y a eu Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et, bien sûr, Varghese c. China Southern Airlines, avec sa savante discussion sur la loi fédérale et « l'effet de péage de la suspension automatique d'un délai de prescription ».

Il y avait juste un hic : personne (ni les avocats de la compagnie aérienne ni le juge lui-même) n'a pu trouver les décisions ou les citations citées et résumées dans le mémoire.

C'était parce que ChatGPT avait tout inventé, tout en assurant à l'avocat que ces affaires étaient réelles.

En fait, ce n’est qu’après que les avocats de la compagnie aérienne ont souligné dans un nouveau mémoire que les affaires n’existaient pas que Schwartz a découvert son erreur (ou, l’erreur de l’ordinateur, selon le point de vue).

Les avocats ont été condamnés à payer une amende de 5 000 dollars.


Les régulateurs et les tribunaux doivent contrôler l'utilisation de ChatGPT dans les litiges

Les régulateurs juridiques et les tribunaux devront peut-être contrôler « si, dans quelles circonstances et à quelles fins » les avocats peuvent utiliser des systèmes d’intelligence artificielle (IA) comme ChatGPT dans les litiges, a déclaré le Master of the Rolls. Il s'agit du troisième plus important juge du Royaume-Uni, après le Président de la Cour Suprême du Royaume-Uni et le Lord Chief Justice. À ce titre, il préside la section civile de la Cour d'appel.

Sir Geoffrey Vos (puisqu'il s'agit de lui) a déclaré qu'il faudrait des mécanismes pour gérer l'utilisation de l'IA générative au sein du système juridique.

« Nous pourrions même, espérons-le, en faire profiter l’accès à la justice, ainsi que des conseils juridiques et une résolution des litiges efficaces et économiques. »

S'adressant à la conférence sur le droit et la technologie de la Law Society of Scotland en juin, Sir Geoffrey a souligné le cas de l'avocat new-yorkais Steven Schwartz, qui a utilisé ChatGPT pour préparer ses arguments dans une affaire de préjudice corporel. Six des cas cités étaient, selon les termes du juge, « de fausses décisions avec de fausses citations ». Et ce malgré le fait que Schwartz ait demandé au système de confirmer leur exactitude.

« M. Schwartz n'a pas été découvert en raison du langage utilisé dans son mémoire, mais parce que le juge chargé de cette affaire a pris la peine de rechercher les cas cités. Sans doute que cela n’arrive pas toujours », a déclaré le Sir Geoffrey Vos. « Les risques que courent les justiciables utilisant ChatGPT en personne pour créer des soumissions plausibles doivent être encore plus palpables. Et en effet, un tel événement aurait eu lieu à Manchester il y a seulement quelques jours ».

L’affaire a montré que les avocats ne pouvaient pas utiliser l’IA générative pour rogner sur les coûts. « Je soupçonne que les outils d’IA non spécialisés n’aideront pas les avocats professionnels autant qu’ils le pensent, même si je suis convaincu que les IA juridiques spécialisées seront une autre histoire. »

Il a déclaré que Spellbook affirmait déjà avoir adapté « GPT-4 pour réviser et suggérer le langage de vos contrats et documents juridiques ».

« Il est peu probable que les clients paient pour des choses qu'ils peuvent obtenir gratuitement », a déclaré Sir Geoffrey, faisant écho aux commentaires qu'il avait faits en avril. « M. Schwartz aurait bien fait de lire l’article d’Enyo Law, qui souligne que le grand modèle linguistique est là pour "aider" les avocats et doit être soigneusement vérifié ». « Néanmoins, si les mémoires peuvent être rédigés par ChatGPT et Spellbook, vérifiés par des avocats, les clients feront probablement pression pour que cela se produise si cela est moins cher et permet d'économiser du temps aux salariés coûteux ».

Dans les litiges du moins, a poursuivi Sir Geoffrey, « le facteur limitant peut être la cour ou le tribunal qui statue sur le différend ».


Un juge en Colombie a également utilisé ChatGPT

En Colombie, un juge a admis avoir utilisé ChatGPT pour décider si l’assurance d’un enfant autiste devait couvrir tous les frais de son traitement médical.

Le juge de la ville caribéenne de Carthagène, Juan Manuel Padilla, a conclu que les frais médicaux et les frais de transport de l’enfant devaient être pris en charge par son assurance maladie, car ses parents ne pouvaient pas les payer.

Padilla pose à l'outil d'IA des questions spécifiques sur la question juridique, telles que : « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ?

La réponse de ChatGPT était en accord avec la décision finale du juge.

Conclusion

ChatGPT est un outil basé sur un modèle de langage artificiel qui peut générer du texte à partir d’une entrée donnée. Il peut être utilisé pour diverses applications, telles que la rédaction de résumés, de poèmes, de dialogues, etc. Il peut également répondre à des questions spécifiques sur un sujet donné 5.

ChatGPT n’est pas le seul outil d’intelligence artificielle utilisé dans le domaine juridique. D’autres logiciels peuvent aider les avocats à analyser des documents, à rechercher des précédents, à prédire des résultats ou à automatiser des tâches administratives. L’utilisation de l’intelligence artificielle dans le système judiciaire soulève toutefois des questions éthiques et juridiques,

Pour un professionnel de l'informatique : « ChatGPT n'est pas une source vraiment fiable. Il est indéniable qu’il s’agit de l’un des meilleurs outils de génération de contenu d’intelligence artificielle, mais la précision sur de nombreux sujets n’est toujours pas aussi bonne qu’on le souhaiterait ».

Rosie Burbidge, associée en propriété intellectuelle chez Gunnercooke LLP, a déclaré : « L'IA, y compris les chatbots, représente une énorme opportunité pour la profession juridique, y compris les juges. Cependant, les avocats doivent être conscients des nombreux risques, notamment le partage d’informations confidentielles, la renonciation à des privilèges et le risque de perte de propriété d’actifs de propriété intellectuelle clés tels que les précédents standards. »

Source : Law Society Gazette

Et vous ?

Quel pourrait être l’impact de l’utilisation de ChatGPT sur la confiance du public dans le système judiciaire ?
Quels sont les avantages et les inconvénients de l’utilisation de ChatGPT par les juges pour rédiger des décisions de justice ?
Quels sont les risques liés à l’utilisation de ChatGPT dans ce milieu ?
Peut-on définir des critères de qualité et de fiabilité que ChatGPT pour une utilisation dans le domaine juridique ? Si oui, lesquels ?
Quelles sont les garanties de transparence et de responsabilité que les juges doivent offrir lorsqu’ils utilisent ChatGPT ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/10/2023 à 15:44
Citation Envoyé par Bruno Voir le message
Partagez-vous le point de vue de Millidge selon lequel le terme de confabulation est plus approprié que celui d’hallucination pour décrire le phénomène de fausses informations, mais plausibles par les LLM ?
Non. Ces daubes sortent des résultats qui n'existent pas, un point c'est tout.

Il bosse dans le domaine alors il essaye de juste de nous vendre sa tambouille en adoucissant le fait que ces IA sont juste imparfaites.
5  1 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/12/2023 à 12:11
Citation Envoyé par Ryu2000 Voir le message
C'est ce qu'il va se passer.

Il est probable que dans le futur 1 humain + 1 IA, réalisent plus de travail que 5 humains.
Il y aura besoin de moins d'humains pour réaliser la même quantité de travail.
L'IA fera gagner beaucoup de temps.
Oui mais dans quel but ? Produire plus ? Consommer plus ? Avec quelles ressources ? Comment des humains qui vont perdre leur emploi vont pouvoir acheter ce qui est vendu ? Dans un monde de plus en plus toxique pour les humains, quel progrès y a-t-il à chercher.

Je vais créer un équivalent au label bio pour l'IA, certifié humains de bout en bout.

Comme d'habitude, on va gagner en productivité, mais on en verra pas la couleur, ça va juste augmenter la charge de travail, et diminuer l'expertise, donc les salaires, et augmenter la réplicabilité des gens. Que du bonus pour les employeurs.
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 18/01/2024 à 10:28
Je pense que tout cela est très grave, et que la société responsable de la mise à disposition d'un outil tel que ChatGPT doit être considérée comme responsable des dires de son outil.

SI ChatGPT met en cause une personne physique à tort, c'est que l'outil n'est pas bon, et doit être corrigé. Les torts causés doivent être attribués à son propriétaire.

Ça calmerait peut-être un peu les gourous fous d'IA, à nous sortir des soi-disant Intelligences Artificielles comme LA solution d'avenir !
5  1 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 08/04/2024 à 17:27
Citation Envoyé par Stéphane le calme Voir le message

« L'IA pourrait remplacer toutes les formes de travail », selon Larry Summers, membre du conseil d'administration d'OpenAI
Et dire qu'il y a des gens qui vont le croire... Pour rappel, on nous avait vendu des voitures volantes et des robots pour faire les corvées à la maison pour l'an 2000, on a eu le 11 septembre. Vivement la fin de cette bulle ridicule et un retour des GPU accessible, parce qu'on sait tous qu'on va devoir travailler encore plus, pour un salaire toujours plus bas. Sauf ceux qui sont biens nés, eux ils vont apprécier
4  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/12/2023 à 13:03
Citation Envoyé par Ryu2000 Voir le message
Le but c'est d'appauvrir les gens pour qu'ils consomment moins et donc qu'ils polluent moins.

La suite ce sera de diminuer la population mondiale. (les gens deviennent stérile et on des problèmes de santé)
Parce qu'on ne peut pas être 8 milliards a vivre correctement.
On ne peut pas tous avoir un PC, un smartphone, une voiture, etc. On ne peut pas tous prendre l'avion pour aller au New Jersey ou je ne sais où.

Profitez d'aujourd'hui demain ce sera pire.
Je sais même pas si c'est un plan aussi élaboré que ça, si ça se trouve, c'est encore pire, on est face à une marrée de gens qui globalement s'en fichent et font du business as usual comme à la révolution industrielle et "advienne que pourra".

Des humains bien trop peu responsables entourés de béni-oui-oui avec bien trop de responsabilités et de pouvoir.

Je crois que je préfèrerais encore qu'il y ai un plan.
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 13/02/2024 à 9:24
Citation Envoyé par Jade Emy Voir le message
"Pour les éducateurs, l'évolution de l'IA souligne l'importance de doter nos étudiants d'outils innovants qui remodèlent le travail dans divers secteurs", a déclaré Debbie Compeau, doyenne par intérim du Carson College of Business. "Nous avons constitué un groupe de travail sur l'IA générative afin d'intégrer ces avancées dans nos programmes existants et d'explorer la manière dont l'IA peut transformer l'enseignement des affaires. Lorsque nous embrassons le potentiel de l'IA pour créer de la valeur et transformer le travail - tout en répondant aux préoccupations légitimes concernant son utilisation et son impact - nous créons un environnement d'apprentissage qui permet à nos étudiants d'exceller dans un avenir axé sur l'IA."
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

Citation Envoyé par Patrick Ruiz Voir le message
Dans le domaine de la traduction, nous assistons déjà à la perte massive d'emplois chez Duolingo et dans toutes les grandes entreprises multilingues du monde. Les sociétés d'enseignement ont été les premières à constater les gains de productivité et ont licencié des milliers de personnes. L'idée qu'il n'y a pas eu ou qu'il n'y aura pas de remplacement d'emplois réels est absurde. C'est une belle phrase à lancer lors de conférences pour obtenir des applaudissements chaleureux, mais elle est dangereusement naïve. Les orateurs ont tendance à vouloir être aimés, plutôt que d'affronter l'inconfortable vérité économique selon laquelle les changements techniques majeurs entraînent TOUJOURS des pertes d'emplois », souligne-t-il.
C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
3  0