Joshua Browder est le PDG de DoNotPay, une startup new-yorkaise qui a développé une solution visant à répondre à la lourdeur de la bureaucratie et participer à la réduction des frais d’honoraires. L'IA de DoNotPay fonctionne sur un smartphone, écoute les arguments du tribunal et formule des réponses pour le défendeur en temps réel, via des écouteurs.
La société d'intelligence artificielle a déjà utilisé des lettres types et des chatbots générés par l'IA pour aider les gens à obtenir des remboursements pour le Wi-Fi en vol qui n'a pas fonctionné, ainsi que pour réduire les factures et contester les tickets de stationnement, entre autres problèmes, selon Browder. Au total, l'entreprise s'est appuyée sur ces modèles d'IA pour gagner plus de 2 millions de litiges liés au service client et d'affaires judiciaires au nom d'individus contre des institutions et des organisations, a-t-il ajouté.
La société a levé 27,7 millions de dollars auprès de sociétés de capital-risque axées sur la technologie, notamment Andreessen Horowitz et Crew Capital.
Légal dans certaines salles d'audience, mais pas dans la plupart
Certains tribunaux autorisent les accusés à porter des appareils auditifs, dont certaines versions sont compatibles Bluetooth. C'est ainsi que Browder a déterminé que la technologie de DoNotPay peut légalement être utilisée dans ce cas.
Cependant, la technologie n'est pas légale dans la plupart des salles d'audience. Certains États exigent que toutes les parties consentent à être enregistrées, ce qui exclut la possibilité qu'un robot avocat entre dans de nombreuses salles d'audience. Sur les 300 cas que DoNotPay a envisagés pour un procès de son robot avocat, seuls deux étaient réalisables.
« C'est dans les textes de loi, mais je ne pense pas que quiconque puisse imaginer que cela se produise », a déclaré Browder. « Ce n'est pas dans l'esprit de la loi, mais nous essayons de faire avancer les choses et beaucoup de gens n'ont pas les moyens de se payer une aide juridique. Si ces affaires aboutissent, cela encouragera davantage de tribunaux à modifier leurs règles ».
Face aux menaces, DoNotPay craque
Le premier bot avocat boosté à l'IA ne devait représenter un accusé devant le tribunal que le 22 février 2023, mais ce n'est désormais plus le cas.
Au fur et à mesure que la nouvelle se répandait, un buzz inquiétant a commencé à tourbillonner parmi divers responsables du barreau de l'État, selon Browder. Il explique que des lettres de colère ont commencé à affluer : « Plusieurs barreaux d'État nous ont menacés », a déclaré Browder. « L'un d'eux a même dit qu'un renvoi au bureau du procureur de district et des poursuites et des peines de prison seraient possibles ».
En particulier, Browder a déclaré qu'un responsable du barreau de l'État avait noté que la pratique non autorisée du droit est un délit dans certains États passible de six mois de prison : « Même si cela ne se produisait pas, la menace d'accusations criminelles était suffisante pour y renoncer », a-t-il déclaré. « Les lettres sont devenues si fréquentes que nous avons pensé que nous devrions passer à autre chose ».
Les barreaux d'État autorisent et réglementent les avocats, afin de s'assurer que les gens embauchent des avocats qui comprennent la loi.
Browder a refusé de citer quels barreaux d'État en particulier avaient envoyé des lettres et quel fonctionnaire avait menacé d'éventuelles poursuites, affirmant que sa startup, DoNotPay, faisait l'objet d'une enquête par plusieurs barreaux d'État, dont celui de Californie.
Dans un communiqué, l'avocat en chef du barreau de l'État de Californie, George Cardona, a refusé de commenter l'enquête sur DoNotPay, mais a déclaré que l'organisation avait le devoir d'enquêter sur d'éventuels cas d'exercice non autorisé du droit : « Nous informons régulièrement les contrevenants potentiels qu'ils pourraient être poursuivis devant un tribunal civil ou pénal, ce qui relève entièrement des forces de l'ordre », a déclaré Cardona dans un communiqué.
Leah Wilson, directrice exécutive du barreau de l'État de Californie, a déclaré qu'il y a eu une récente augmentation de la représentation juridique de mauvaise qualité qui a émergé pour combler un vide dans les conseils juridiques abordables : « En 2023, nous voyons des prestataires bien financés et non réglementés se précipiter sur le marché de la représentation juridique à faible coût, soulevant à nouveau des questions quant à savoir si et comment ces services devraient être réglementés », a déclaré Wilson.
Même si l'utilisation de l'IA devant les tribunaux n'était pas contestée, certains observateurs se sont demandé à quel point les outils d'IA de DoNotPay seraient efficaces pour les personnes ayant besoin de services juridiques, certains ayant obtenu des résultats mitigés à médiocres en essayant d'utiliser ses fonctionnalités de base.
Browder est connu pour attirer l'attention avec des cascades. Plus tôt ce mois-ci, il a affirmé sur Twitter que la société paierait 1 million de dollars à n'importe quel avocat pour plaider devant la Cour suprême des États-Unis en portant des AirPod qui transmettraient les arguments générés par l'IA de son "bot avocat".
S'éloigner de la défense juridique de l'IA face aux menaces
Au lieu d'essayer d'aider les personnes accusées d'infractions au code de la route à utiliser l'IA dans la salle d'audience, Browder a déclaré que DoNotPay mettra l'accent sur l'aide aux personnes confrontées à des factures médicales coûteuses, des abonnements non désirés et des problèmes avec les agences d'évaluation du crédit.
Browder espère également que ce n'est pas la fin de la route pour l'IA dans la salle d'audience. « La vérité est que la plupart des gens n'ont pas les moyens de se payer des avocats », a-t-il déclaré. « Cela aurait pu modifier l'équilibre et permettre aux gens d'utiliser des outils comme ChatGPT dans la salle d'audience qui auraient peut-être pu les aider à gagner des procès ».
L'avenir des bots avocats est incertain pour une autre raison bien plus simple que les questions existentielles des barreaux : les règles de la salle d'audience.
L'enregistrement audio pendant une procédure judiciaire en direct n'est pas autorisé devant les tribunaux fédéraux et est souvent interdit devant les tribunaux d'État. Les outils d'IA développés par DoNotPay, qui n'ont pas encore été testés dans les salles d'audience réelles, nécessitent l'enregistrement audio des arguments pour que l'algorithme d'apprentissage automatique génère des réponses.
« Je pense que le fait d'appeler l'outil un "bot avocat" a vraiment énervé beaucoup d'avocats », a déclaré Browder. « Mais je pense qu'ils ne voient pas la forêt cachée par les arbres. La technologie progresse et les règles de la salle d'audience sont très obsolètes ».
Quel regard portait le public sur ce projet ?
Lorsqu'il avait présenté son projet, les réactions étaient partagées.
Certains y voyaient un intérêt. Un internaute demande par exemple s'il est possible de développer une version qui s'attaquerait aux frais de santés (il lui a été répondu « Ce truc de salle d'audience est une expérience de plaidoyer. Mais nous travaillons sur un produit accessible au public pour les frais de santé, ouvert à tous »), un autre a déclaré « Cela contribuera à démocratiser la représentation légale. La plupart des gens n'ont pas les moyens d'engager un bon avocat. De plus, cela donnera aux avocats existants plus d'outils pour leur donner une deuxième opinion lors de la formulation d'un argument ». Notons que plusieurs internautes sont revenus sur la suggestion des frais médicaux comme prochain challenge de l'IA.
D'autres étaient plus dans l'amusement. Un internaute suggère de baptiser l'IA Saul (petit clin d’œil à ceux qui connaissent la série Better Call Saul), un autre déclare « C'est une cascade amusante, mais vous devriez faire ce que fait Tesla et utiliser un agent fantôme pour fournir des conseils en temps réel basés sur les entrées de l'environnement de la salle d'audience - mais ne les utilisez pas. Enregistrez-les simplement et analysez-les. Vous obtiendrez plus de traction avec les avocats et en apprendrez beaucoup plus de cette façon ».
D'autres s'interrogeaient sur la légalité. Un internaute commente en disant : « Normalement, c'est moi qui dis "ce n'est pas illégal", mais je suis presque sûr que cette histoire va se terminer par une situation où vous serez en garde à vue ». Un autre se demande : « Mais est-ce vraiment illégal ? Et si vous aviez devant vous un ipad avec des "notes" générées par l'IA*? Je ne dis pas que c'est une bonne idée... juste... je ne suis pas sûr que ce serait "illégal"... Mais, la façon dont il le fait ? Je ne peux pas imaginer qu'un juge ne dise pas "enlevez ces airpods" ».
Et d'autres sur l'utilité : « Je ne comprends pas pourquoi, en tant qu'humains, nous pensons que c'est une bonne chose*? Pourquoi nous concentrons-nous tellement sur les robots au point de les entraîner à prendre le relais ? ! Je veux dire, oui, il y a des avantages, mais à cette échelle, absolument pas, je veux dire, bientôt les drones nous surveilleront m*****! Les gens veulent ça ? »
La perspective globale
Le tableau soulève des questions sur la possible disparition du métier d’avocat et d’autres comme celui de développeur. En effet, une startup spécialisée en intelligence artificielle prédit que « s’appuyer sur des humains pour écrire des programmes informatiques sera dépassé à l’avenir » et donc tire la sonnette d’alarme sur la possible disparition du métier de développeur informatique dans les années à venir au profit de l’intelligence artificielle.
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour les humains.
Le plus grand débat tourne autour de la possibilité de voir les machines rendues au stade où elles sont dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.
L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu.
Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science-fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.
ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres
ChatGPT ne peut pas encore surpasser la plupart des étudiants en droit aux examens, selon de nouvelles recherches, mais il peut obtenir une note de passage. Un quatuor de professeurs de droit de l'Université du Minnesota a utilisé le populaire chatbot d'intelligence artificielle pour générer des réponses aux examens de quatre cours le semestre dernier, puis les a notés à l'aveugle aux côtés des tests des étudiants réels.
Jonathan Choi, professeur à la faculté de droit de l'Université du Minnesota, a soumis à ChatGPT au même test auquel les étudiants étaient confrontés, composé de 95 questions à choix multiples et de 12 questions à développement. Dans un livre blanc intitulé « ChatGPT va à la faculté de droit » publié lundi, lui et ses coauteurs ont rapporté que le bot avait obtenu un C+ dans l'ensemble, en dessous de la moyenne B+ des humains.
« Seul, ChatGPT serait un étudiant en droit plutôt médiocre », a déclaré l'auteur principal de l'étude, Jonathan Choi, qui a collaboré avec les professeurs Kristin Hickman, Amy Monahan et Daniel Schwarcz. « Le plus grand potentiel pour la profession ici est qu'un avocat puisse utiliser ChatGPT pour produire une première ébauche et simplement rendre sa pratique beaucoup plus efficace », a-t-il déclaré.
Choi a déclaré que lui et de nombreux collègues avaient désormais interdit l'utilisation d'Internet pendant les examens en classe pour éliminer la possibilité de tricher avec ChatGPT, bien que les futurs examens puissent tester leur capacité à tirer efficacement parti des programmes d'intelligence artificielle.
Source : Joshua Browder
Et vous ?
Êtes-vous surpris de voir les hommes de loi s'opposer farouchement à ce projet au point de faire plier DoNotPay ?
Que pensez-vous des menaces d'emprisonnement et de poursuites ?
L'IA encore loin d'être acceptée dans un tribunal occidental ?
D'ailleurs, pour ou contre les bot avocats ? Pourquoi ?