L'intelligence artificielle (IA) demeure l'une des avancées technologiques les plus radicales et débattues. Bien que l'IA offre la perspective d'un avenir caractérisé par une efficacité accrue, une sécurité renforcée et une précision inégalée, elle soulève également des préoccupations. Les chatbots d'IA, en particulier, sont parfois responsables de la génération de déclarations diffamatoires erronées. OpenAI doit faire face à un procès en diffamation suite à des « hallucinations » de son chatbot ChatGPT. Un juge de Géorgie a rejeté la demande de rejet de l'affaire, ouvrant la voie à un examen plus approfondi. L'animateur de radio Mark Walters affirme que ChatGPT a généré de fausses accusations contre lui, mettant en doute sa réputation. OpenAI avait argué que la production du chatbot ne constituait pas une diffamation, mais la décision du tribunal soulève des questions sur la responsabilité de l'entreprise. Le procès pourrait également déterminer si Walters est une personnalité publique. En parallèle, la FTC enquête sur les possibles dommages causés par les générations de ChatGPT. L'issue pourrait avoir des implications sur la manière dont les « hallucinations » de chatbots affectent la vie des utilisateurs.
Que se passerait-il si un chatbot d'IA vous accusait d'avoir fait quelque chose de terrible ? Lorsque les robots font des erreurs, les fausses affirmations peuvent ruiner des vies, et les questions juridiques qui entourent ces problèmes restent floues. C'est ce qu'affirment plusieurs personnes qui poursuivent en justice les plus grandes entreprises d'IA. Mais les fabricants de chatbots espèrent éviter toute responsabilité, et une série de menaces juridiques a révélé à quel point il pouvait être facile pour les entreprises de se dégager de leur responsabilité en cas de réponses prétendument diffamatoires de la part des chatbots.
Au début de l'année, un maire régional australien, Brian Hood, a fait les gros titres en devenant la première personne à accuser le fabricant de ChatGPT, OpenAI, de diffamation. Peu de gens ont semblé remarquer que Hood avait résolu à l'amiable, au printemps, cette affaire de diffamation par l'IA qui devait faire date, mais la conclusion discrète de cette menace juridique très médiatisée a donné un aperçu de ce qui pourrait devenir une stratégie de choix pour les entreprises d'IA cherchant à éviter les poursuites en diffamation.
C'est à la mi-mars que Hood a découvert pour la première fois que le logiciel ChatGPT d'OpenAI produisait de fausses réponses aux questions des utilisateurs, affirmant à tort que Hood avait été emprisonné pour corruption. Hood s'est alarmé. Il avait construit sa carrière politique en tant que dénonciateur de la mauvaise conduite des entreprises, mais ChatGPT avait apparemment brouillé les faits, faisant passer Hood pour un criminel. Il craignait que plus on laissait ChatGPT répéter ces fausses affirmations, plus le chatbot risquait de ruiner sa réputation auprès des électeurs.
Comment l'intelligence artificielle compromet la réputation et la crédibilité individuelles
Au cours des derniers mois, ChatGPT a généré de manière erronée des récits fallacieux impliquant de nombreuses personnes à travers le monde, allant parfois jusqu'à citer des sources fictives pour appuyer ses histoires. Un exemple aux États-Unis illustre la création d'un scandale de harcèlement sexuel attribué à tort à un véritable professeur de droit. De telles narrations mensongères se propagent sur Internet, y compris en France.
Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.
« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.
ChatGPT d'OpenAI est au cœur de la controverse, attirant l'attention de la FTC
Salué comme l'application grand public à la croissance la plus rapide de tous les temps par les analystes, ChatGPT a déclenché une course effrénée parmi les entreprises de la Silicon Valley pour développer des chatbots concurrents. Le PDG d'OpenAI, Sam Altman, est devenu une figure clé dans les discussions sur la réglementation de l'IA, participant à des audiences au Capitol Hill, dialoguant avec des législateurs, et rencontrant le président Biden ainsi que la vice-présidente Harris.
Cependant, OpenAI est confronté à un problème majeur : la FTC a émis une demande d'information exhaustive de 20 pages. Cette requête exige des documents sur les modèles de langage, les données personnelles, les informations vérifiées et corrigées, ainsi que les risques pour les consommateurs, notamment en matière de diffamation.
Selon le renommé penseur et chercheur américain Noam Chomsky, ChatGPT est qualifié de « principalement un outil sophistiqué de plagiat » et est considéré comme un « moyen d'éviter d'apprendre ». Il estime que l'utilisation de telles technologies par les étudiants témoigne d'un dysfonctionnement du système éducatif. Chomsky souligne que, malgré les programmes existants pour détecter le plagiat, la sophistication de ChatGPT rendra cette tâche plus difficile, marquant ainsi l'une des rares contributions à l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
