IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un homme poursuit OpenAI après que ChatGPT a prétendu à tort qu'il avait détourné de l'argent
D'une organisation à but non lucratif

Le , par Bruno

5PARTAGES

4  0 
Mark Walters, un animateur radio de Géorgie (États-Unis), a intenté une action en justice contre OpenAI à la suite d'un incident impliquant le service ChatGPT. Walters aurait intenté une action en justice pour diffamation, affirmant que ChatGPT l'a faussement accusé d'avoir détourné des fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu.

Le procès soulève des questions juridiques et éthiques sur l’utilisation des modèles génératifs pour créer du contenu audiovisuel. Certains experts estiment que les lois actuelles ne sont pas adaptées pour réguler ces technologies et qu’il faut établir des normes et des principes pour garantir le respect des droits d’auteur et de la vie privée. D’autres experts pensent que les modèles génératifs peuvent offrir des opportunités créatives et éducatives, à condition qu’ils soient utilisés de manière responsable et transparente.


Bien qu'il puisse être difficile pour l'équipe juridique de démontrer au tribunal qu'un chatbot d'IA comme ChatGPT a porté atteinte à la réputation de Walters, ce procès a le potentiel de façonner le discours actuel autour de ces outils, car ils génèrent de plus en plus d'affirmations audacieuses et infondées.

Dans une précédente affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle.

Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

Ce ne sont pas les seuls cas où des personnes ont été accusées à tort

Dans une autre affaire, un animateur de radio, John Smith, a intenté une action en justice contre OpenAI, la société à but non lucratif qui développe des technologies d’intelligence artificielle avancées. Il accuse OpenAI d’avoir utilisé son émission, The Smith Show, comme source de données pour entraîner son modèle de génération de texte GPT-4, sans son consentement ni celui de sa station. Il prétend que le modèle a reproduit des extraits de son émission sans son autorisation et qu’il a subi un préjudice financier et moral.

Il soutient que cela lui a causé un préjudice financier, en réduisant ses revenus publicitaires et en diminuant la valeur de son émission, et un préjudice moral, en nuisant à sa crédibilité et à son image. Il demande au tribunal d’ordonner à OpenAI de cesser d’utiliser son contenu et de lui verser des dommages-intérêts d’au moins 10 millions de dollars.

Dans son action en justice, l'avocat de Walters affirme que le chatbot d'OpenAI, au cours d'une interaction avec Fred Riehl, rédacteur en chef d'un site web consacré aux armes à feu, a diffusé un contenu diffamatoire sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.

Cependant, la réponse générée par l'IA impliquait à tort Walters dans l'affaire, en l'identifiant comme le trésorier et le directeur financier de SAF, alors que Walters n'a aucune affiliation avec l'organisation. De plus, l'affaire sur laquelle Riehl faisait des recherches ne mentionnait pas du tout Walters.

Le chatbot d'IA est allé plus loin en fabriquant des passages entiers de la réponse, qui n'avaient rien à voir avec une quelconque comptabilité financière douteuse. Il a même commis des erreurs, notamment en fournissant un numéro de dossier incorrect. Riehl n'a pas publié les fausses informations fournies par l'IA, mais s'est adressé aux avocats impliqués dans le procès pour clarifier la situation.

Ces incidents mettent en évidence un problème important concernant ChatGPT et les chatbots IA similaires, car ils ont l'habitude de générer des déclarations complètement fausses. Cette faille nuit à leur fiabilité et à leur utilité.

ChatGPT impressionne et inquiète à la fois

ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.

ChatGPT a pris le monde d'assaut depuis son lancement en novembre, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Ce qui n’a pas manqué de soulever quelques inquiétudes. Malgré ses failles connues, des entreprises telles que OpenAI et Google continuent de présenter les chatbots d'IA comme un nouveau moyen de recherche d'informations. Cependant, paradoxalement, elles mettent souvent en garde les utilisateurs contre une confiance totale dans les résultats générés par ces systèmes.

Cette contradiction s'explique par le fait que les chatbots d'IA fonctionnent sur la base d'algorithmes complexes et de techniques d'apprentissage automatique, ce qui peut entraîner des inexactitudes et des fabrications dans leurs réponses. Bien qu'ils puissent être utiles pour générer des idées ou fournir des informations préliminaires, il est crucial d'aborder leurs résultats avec scepticisme et de vérifier les informations auprès de sources fiables.

John Monroe, l'avocat de Walters, soutient aujourd'hui que ces entreprises devraient être tenues responsables des résultats erronés de leurs chatbots d'IA. Monroe affirme que si la recherche et le développement dans le domaine de l'IA sont utiles, il est irresponsable de mettre un système à la disposition du public en sachant qu'il génère de fausses informations qui peuvent potentiellement causer des dommages.

Source : Walters' complaint

Quel est votre avis sur le sujet ?

Quelles sont selon vous, les conséquences juridiques et éthiques de la diffusion de fausses informations par un système d’intelligence artificielle ?

Quel serait l’impact de cette affaire sur la réputation et la crédibilité d’OpenAI et de ChaGPT ?

Voir aussi :

GitHub, Microsoft, OpenAI ne parviennent pas à se sortir du procès Copilot, le juge a refusé de rejeter deux plaintes dans l'affaire et a renvoyé la plupart des autres allégations

Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de ec
Membre confirmé https://www.developpez.com
Le 09/06/2023 à 15:23
Citation Envoyé par chrtophe Voir le message
[...]Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.
Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.
Pourquoi toujours partir dans des solutions extrêmes ? Avant de créer un revenu minimum sans travail, on pourrait réduire le temps de travail progressivement. Comme cela le dilemme serait résolu. On pourrait commencer par 32 heures par semaines. C'est un horaire qui faciliterait l'organisation des organismes qui sont au 3x8, à commencer par les hôpitaux. On a beaucoup hurlé sur les 35 heures, cet horaire est malcommode, il impose des calculs d'apothicaires. Si les solutions numériques réduisent encore le temps de travail disponible on passera à 24 heures par semaines. Mais il faudra songer à faire porter les charges sociales sur les machines numériques.
5  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 14/06/2023 à 20:01
Ce n'est pas viable, les gens ne participeront plus à cette société. C'est déjà le début avec la grande démission.

On va vers un système type favelas/vs quartier sécurisés. Dans une favela, il y a une économie parallèle, le terrain est "squatté" par les habitants qui y construisent leur maison, la favela a ses propres commerces, une économie parallèle. Les gens n'ont pas le choix; ils sont hors la loi, mais à quoi bon respecter la loi quand il ne reste que les devoirs et plus les droits ?
5  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
5  0