Mark Walters, un animateur radio de Géorgie (États-Unis), a intenté une action en justice contre OpenAI à la suite d'un incident impliquant le service ChatGPT. Walters aurait intenté une action en justice pour diffamation, affirmant que ChatGPT l'a faussement accusé d'avoir détourné des fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu.
Le procès soulève des questions juridiques et éthiques sur l’utilisation des modèles génératifs pour créer du contenu audiovisuel. Certains experts estiment que les lois actuelles ne sont pas adaptées pour réguler ces technologies et qu’il faut établir des normes et des principes pour garantir le respect des droits d’auteur et de la vie privée. D’autres experts pensent que les modèles génératifs peuvent offrir des opportunités créatives et éducatives, à condition qu’ils soient utilisés de manière responsable et transparente.
Bien qu'il puisse être difficile pour l'équipe juridique de démontrer au tribunal qu'un chatbot d'IA comme ChatGPT a porté atteinte à la réputation de Walters, ce procès a le potentiel de façonner le discours actuel autour de ces outils, car ils génèrent de plus en plus d'affirmations audacieuses et infondées.
Dans une précédente affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle.
Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.
Ce ne sont pas les seuls cas où des personnes ont été accusées à tort
Dans une autre affaire, un animateur de radio, John Smith, a intenté une action en justice contre OpenAI, la société à but non lucratif qui développe des technologies d’intelligence artificielle avancées. Il accuse OpenAI d’avoir utilisé son émission, The Smith Show, comme source de données pour entraîner son modèle de génération de texte GPT-4, sans son consentement ni celui de sa station. Il prétend que le modèle a reproduit des extraits de son émission sans son autorisation et qu’il a subi un préjudice financier et moral.
Il soutient que cela lui a causé un préjudice financier, en réduisant ses revenus publicitaires et en diminuant la valeur de son émission, et un préjudice moral, en nuisant à sa crédibilité et à son image. Il demande au tribunal d’ordonner à OpenAI de cesser d’utiliser son contenu et de lui verser des dommages-intérêts d’au moins 10 millions de dollars.
Dans son action en justice, l'avocat de Walters affirme que le chatbot d'OpenAI, au cours d'une interaction avec Fred Riehl, rédacteur en chef d'un site web consacré aux armes à feu, a diffusé un contenu diffamatoire sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.
Cependant, la réponse générée par l'IA impliquait à tort Walters dans l'affaire, en l'identifiant comme le trésorier et le directeur financier de SAF, alors que Walters n'a aucune affiliation avec l'organisation. De plus, l'affaire sur laquelle Riehl faisait des recherches ne mentionnait pas du tout Walters.
Le chatbot d'IA est allé plus loin en fabriquant des passages entiers de la réponse, qui n'avaient rien à voir avec une quelconque comptabilité financière douteuse. Il a même commis des erreurs, notamment en fournissant un numéro de dossier incorrect. Riehl n'a pas publié les fausses informations fournies par l'IA, mais s'est adressé aux avocats impliqués dans le procès pour clarifier la situation.
Ces incidents mettent en évidence un problème important concernant ChatGPT et les chatbots IA similaires, car ils ont l'habitude de générer des déclarations complètement fausses. Cette faille nuit à leur fiabilité et à leur utilité.
ChatGPT impressionne et inquiète à la fois
ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.
L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.
ChatGPT a pris le monde d'assaut depuis son lancement en novembre, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Ce qui n’a pas manqué de soulever quelques inquiétudes. Malgré ses failles connues, des entreprises telles que OpenAI et Google continuent de présenter les chatbots d'IA comme un nouveau moyen de recherche d'informations. Cependant, paradoxalement, elles mettent souvent en garde les utilisateurs contre une confiance totale dans les résultats générés par ces systèmes.
Cette contradiction s'explique par le fait que les chatbots d'IA fonctionnent sur la base d'algorithmes complexes et de techniques d'apprentissage automatique, ce qui peut entraîner des inexactitudes et des fabrications dans leurs réponses. Bien qu'ils puissent être utiles pour générer des idées ou fournir des informations préliminaires, il est crucial d'aborder leurs résultats avec scepticisme et de vérifier les informations auprès de sources fiables.
John Monroe, l'avocat de Walters, soutient aujourd'hui que ces entreprises devraient être tenues responsables des résultats erronés de leurs chatbots d'IA. Monroe affirme que si la recherche et le développement dans le domaine de l'IA sont utiles, il est irresponsable de mettre un système à la disposition du public en sachant qu'il génère de fausses informations qui peuvent potentiellement causer des dommages.
Source : Walters' complaint
Quel est votre avis sur le sujet ?
Quelles sont selon vous, les conséquences juridiques et éthiques de la diffusion de fausses informations par un système d’intelligence artificielle ?
Quel serait l’impact de cette affaire sur la réputation et la crédibilité d’OpenAI et de ChaGPT ?
Voir aussi :
GitHub, Microsoft, OpenAI ne parviennent pas à se sortir du procès Copilot, le juge a refusé de rejeter deux plaintes dans l'affaire et a renvoyé la plupart des autres allégations
Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »
Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes
Un homme poursuit OpenAI après que ChatGPT a prétendu à tort qu'il avait détourné de l'argent
D'une organisation à but non lucratif
Un homme poursuit OpenAI après que ChatGPT a prétendu à tort qu'il avait détourné de l'argent
D'une organisation à but non lucratif
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !