
OpenAI avait argué que la production du chatbot ne constituait pas une diffamation, mais la décision du tribunal soulève des questions sur la responsabilité de l'entreprise. Le procès pourrait également déterminer si Walters est une personnalité publique. En parallèle, la FTC enquête sur les possibles dommages causés par les générations de ChatGPT. L'issue pourrait avoir des implications sur la manière dont les « hallucinations » de chatbots affectent la vie des utilisateurs.
Que se passerait-il si un chatbot d'IA vous accusait d'avoir fait quelque chose de terrible ? Lorsque les robots font des erreurs, les fausses affirmations peuvent ruiner des vies, et les questions juridiques qui entourent ces problèmes restent floues. C'est ce qu'affirment plusieurs personnes qui poursuivent en justice les plus grandes entreprises d'IA. Mais les fabricants de chatbots espèrent éviter toute responsabilité, et une série de menaces juridiques a révélé à quel point il pouvait être facile pour les entreprises de se dégager de leur responsabilité en cas de réponses prétendument diffamatoires de la part des chatbots.
Au début de l'année, un maire régional australien, Brian Hood, a fait les gros titres en devenant la première personne à accuser le fabricant de ChatGPT, OpenAI, de diffamation. Peu de gens ont semblé remarquer que Hood avait résolu à l'amiable, au printemps, cette affaire de diffamation par l'IA qui devait faire date, mais la conclusion discrète de cette menace juridique très médiatisée a donné un aperçu de ce qui pourrait devenir une stratégie de choix pour les entreprises d'IA cherchant à éviter les poursuites en diffamation.
C'est à la mi-mars que Hood a découvert pour la première fois que le logiciel ChatGPT d'OpenAI produisait de fausses réponses aux questions des utilisateurs, affirmant à tort que Hood avait été emprisonné pour corruption. Hood s'est alarmé. Il avait construit sa carrière politique en tant que dénonciateur de la mauvaise conduite des entreprises, mais ChatGPT avait apparemment brouillé les faits, faisant passer Hood pour un criminel. Il craignait que plus on laissait ChatGPT répéter ces fausses affirmations, plus le chatbot risquait de ruiner sa réputation auprès des électeurs.
Comment l'intelligence artificielle compromet la réputation et la crédibilité individuelles
Au cours des derniers mois, ChatGPT a généré de manière erronée des récits fallacieux impliquant de nombreuses personnes à travers le monde, allant parfois jusqu'à citer des sources fictives pour appuyer ses histoires. Un exemple aux États-Unis illustre la création d'un scandale de harcèlement sexuel attribué à tort à un véritable professeur de droit. De telles narrations mensongères se propagent sur Internet, y compris en France.
Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.
« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.
ChatGPT d'OpenAI est au cœur de la controverse, attirant l'attention de la FTC
Salué comme l'application grand public à la croissance la plus rapide de tous les temps par les analystes, ChatGPT a déclenché une course effrénée parmi les entreprises de la Silicon Valley pour développer des chatbots concurrents. Le PDG d'OpenAI, Sam Altman, est devenu une figure clé dans les discussions sur la réglementation de l'IA, participant à des audiences au Capitol Hill, dialoguant avec des législateurs, et rencontrant le président Biden ainsi que la vice-présidente Harris.
Cependant, OpenAI est confronté à un problème majeur : la FTC a émis une demande d'information exhaustive de 20 pages. Cette requête exige des documents sur les modèles de langage, les données personnelles, les informations vérifiées et corrigées, ainsi que les risques pour les consommateurs, notamment en matière de diffamation.
Selon le renommé penseur et chercheur américain Noam Chomsky, ChatGPT est qualifié de « principalement un outil sophistiqué de plagiat » et est considéré comme un « moyen d'éviter d'apprendre ». Il estime que l'utilisation de telles technologies par les étudiants témoigne d'un dysfonctionnement du système éducatif. Chomsky souligne que, malgré les programmes existants pour détecter le plagiat, la sophistication de ChatGPT rendra cette tâche plus difficile, marquant ainsi l'une des rares contributions à l'éducation qu'il peut identifier. Bien qu'il reconnaisse que des systèmes comme ChatGPT « peuvent avoir une certaine valeur pour quelque chose », il reste sceptique quant à cette utilité.
Certains des plus prestigieux éditeurs de revues universitaires mondiaux ont pris des mesures pour restreindre l'utilisation de ChatGPT par leurs auteurs. En raison du fait que le chatbot utilise des informations en ligne pour générer des réponses claires aux questions, les éditeurs craignent l'inclusion de travaux inexacts ou plagiés dans la littérature académique. Des chercheurs ont déjà inclus le chatbot en tant que coauteur dans des études, incitant certains éditeurs à interdire cette pratique. Le rédacteur en chef de Science, une revue scientifique de premier plan, va même jusqu'à interdire toute utilisation du texte généré par le programme dans les articles soumis.
En juillet, Jeffery Battle, résidant dans le Maryland, a engagé des poursuites contre Microsoft, affirmant avoir subi des pertes financières considérables et une atteinte à sa réputation après avoir découvert que les moteurs de recherche Bing et Bing Chat le cataloguaient à tort en tant que terroriste condamné. Pendant le même mois, Mark Walters, animateur radio en Géorgie (États-Unis), a intenté une action en justice contre OpenAI suite à un incident impliquant le service ChatGPT. Walters a engagé des poursuites pour diffamation, alléguant que ChatGPT l'avait faussement accusé de détournement de fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits liés aux armes à feu.
Dans sa plainte, l'avocat de Walters soutient que le chatbot d'OpenAI, lors d'une interaction avec Fred Riehl, rédacteur en chef d'un site web dédié aux armes à feu, a diffusé des contenus diffamatoires sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.
Contrairement à Hood, Walters n'a pas cherché à faire retirer préalablement les allégations prétendument diffamatoires de ChatGPT à son égard avant d'engager des poursuites. Selon Walters, les lois sur la diffamation ne contraignent pas les utilisateurs de ChatGPT à prendre des mesures supplémentaires pour informer OpenAI du contenu diffamatoire avant de déposer des plaintes. Walters espère que le tribunal reconnaîtra qu'OpenAI devrait être tenue responsable de la publication de déclarations diffamatoires si elle est consciente que son produit génère de telles réponses diffamatoires.
OpenAI nie que les résultats de ChatGPT sont diffamatoires
Les lois anti-diffamation, également appelées lois sur la diffamation, diffèrent d'un État à l'autre. Walters a intenté son procès en Géorgie, et pour que Walters obtienne gain de cause, il doit prouver que :
- OpenAI (par l'intermédiaire de ChatGPT) a publié des déclarations fausses et diffamatoires ;
- que ces déclarations diffamatoires ont été communiquées à un tiers ;
- qu'OpenAI a commis une faute en publiant ces fausses déclarations ;
- que Walters a subi un préjudice.
Puisque OpenAI considère Mark Walters, en tant qu'animateur de talk-show diffusé à l'échelle nationale, comme une personnalité publique, il pourrait également être contraint de démontrer que OpenAI a délibérément publié les déclarations supposément diffamatoires avec une réelle intention de causer du tort. Dans sa réponse à la motion de rejet déposée la semaine dernière par OpenAI, Walters a avancé que l'entreprise doit convaincre un jury de son statut de personnalité publique. Cependant, indépendamment de cette question, il a allégué que OpenAI a manifesté une réelle intention de nuire.
Le premier obstacle, selon OpenAI, pourrait être le plus crucial. Bien que, à première vue, il semble être satisfait - car Walters a allégué que ChatGPT a fait de fausses déclarations le qualifiant de criminel - OpenAI argue que ChatGPT ne "publie" effectivement rien. Au lieu de cela, ChatGPT génère un « contenu provisoire ». OpenAI affirme que, conformément à ses conditions d'utilisation, ChatGPT est un outil d'aide à la rédaction ou à la création de projets de contenu, et que l'utilisateur est propriétaire du contenu qu'il génère avec ChatGPT.
Étant donné que chaque utilisateur de ChatGPT accepte en s'inscrivant de « prendre la responsabilité ultime du contenu publié », OpenAI soutient que, « juridiquement, cette création de projet de contenu à des fins internes de l'utilisateur ne constitue pas une 'publication' ». James Naughton, l'un des avocats de Hood, a déclaré à Reuters qu'un tribunal qui trancherait cette question juridique spécifique pourrait « potentiellement marquer une étape importante en appliquant la loi sur la diffamation à un nouveau domaine, celui de l'intelligence artificielle et de la publication dans le secteur des technologies de l'information ».
Mais l'affaire de Walters pourrait immédiatement échouer si le tribunal décidait que la production de ChatGPT n'est pas une «...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.