IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un éditeur affirme que le GPT Store d'OpenAI est truffé de GPT créés illégalement à partir de ses manuels scolaires,
Il contiendrait également des chatbots de spam et d'usurpation d'identité

Le , par Mathis Lucas

0PARTAGES

3  0 
Plusieurs rapports alertent sur les problèmes de sécurité du GPT Store d'OpenAI et sur le fait qu'il héberge de nombreux chatbots entraînés sur des contenus protégé par le droit d'auteur. Ils signalent notamment que le GPT Store, lancé en janvier, est inondé de GPT illégaux et dangereux, dont certains seraient des chatbots de spam et d'usurpation d'identité. L'éditeur danois Praxis a récemment affirmé que le GPT Store d'OpenAI est truffé de chatbots entraînés illégalement à partir de ses manuels scolaires. Ce qui viole ses droits d'auteur et constitue un danger potentiel pour les utilisateurs. OpenAI a retiré certains de ces chatbots, mais le problème persiste.

GPT Store : problèmes de sécurité et prolifération des chatbots illégaux

Blichfeldt Andersen, directeur de publication chez l'éditeur de manuels scolaires Praxis, explique : « j'ai personnellement cherché des infractions et je les ai signalées. Elles ne cessent d'apparaître ». Andersen soupçonne que les coupables sont principalement des jeunes qui téléchargent du matériel provenant de manuels scolaires pour créer des robots personnalisés qu'ils partagent avec leurs camarades de classe, et qu'il n'a découvert qu'une infime partie des chatbots contrevenants dans le GPT Store. « La pointe de l'iceberg », a-t-il déclaré. Cela signifie que le problème est beaucoup plus complexe à résoudre qu'il n'y paraît.

OpenAI a lancé le GPT Store comme une place de marché où les développeurs spécialisés dans l'IA peuvent partager et monétiser leurs propres chatbots personnalisés basés sur la technologie GPT. Le GPT Store est pour les modèles d'IA personnalisés ce que l’App Store d’Apple ou le Play Store de Google sont pour les applications mobiles iOS et Android. Cependant, le fait d'être sous l'égide d'OpenAI ne signifie pas forcément que ces GPT offriront les mêmes niveaux de sécurité et de confidentialité des données que le ChatGPT original. Selon les analystes, ils ne facilitent pas la tâche aux utilisateurs pour choisir des GPT sûrs.


Les chatbots proposés dans le GPT Store d'OpenAI sont basés sur la même technologie que ChatGPT, mais sont créés par des développeurs tiers pour des tâches spécifiques. Pour personnaliser son GPT, un développeur peut télécharger des données supplémentaires qu'il peut exploiter pour compléter les connaissances intégrées dans la technologie d'OpenAI. Le processus qui permet de consulter ces données supplémentaires est appelé RAG (retrieval-augmented generation). D'après Andersen, les fichiers RAG des chatbots du GPT Store sont une mine d'informations protégées par le droit d'auteur et téléchargées sans autorisation.

Selon plusieurs analyses, il est facile de trouver sur le GPT Store des chatbots dont les descriptions suggèrent qu'ils pourraient utiliser des contenus protégés par le droit d'auteur d'une manière ou d'une autre. Les rapports indiquent qu'il héberge de nombreux GPT de spam et d'usurpation d'identité, certains se faisant passer pour des célébrités. Par exemple, Wired dit avoir identifié un chatbot appelé "Westeros Writer" qui prétend écrire comme George R.R. Martin, le créateur de Game of Thrones. Un autre, Voice of Atwood, prétend imiter l'écrivaine Margaret Atwood. Un autre encore, Write Like Stephen, vise à imiter Stephen King.

Le chatbot qui tente d'imiter Stephen King explique avoir accès à ses mémoires intitulées "On Writing" (Écriture). Ainsi, il a été en mesure de reproduire mot pour mot des passages du livre à la demande, en indiquant même la page d'où provenait le matériel. Il n'a pas été possible de contacter le développeur du chatbot, car il n'a pas fourni d'adresse mail, de numéro de téléphone, de profil social externe ou d'autres informations. L'utilisation sans autorisation du matériel protégé par le droit d'auteur est permise dans certains contextes, mais dans d'autres, les détenteurs de droits peuvent choisir d'intenter une action en justice.

Kayla Wood, porte-parole d'OpenAI, affirme que l'entreprise répond aux demandes de retrait des GPT créés à partir de contenus protégés par des droits d'auteur, mais elle a refusé de répondre aux questions sur la fréquence à laquelle OpenAI traite ces demandes. Elle a ajouté que l'entreprise recherche de manière proactive les GPT problématiques. Wood a expliqué : « nous utilisons une combinaison de systèmes automatisés, d'examens humains et de rapports d'utilisateurs afin de trouver et évaluer les GPT qui violent potentiellement nos politiques, y compris l'utilisation de contenu de tiers sans les autorisations nécessaires ».

Le GPT Store pourrait en rajouter aux problèmes juridiques d'OpenAI

Alors qu'OpenAI est déjà visé par de nombreuses actions en justice pour violation du droit, les GPT entraînés sur des matériels protégés par le droit d'auteur pourraient représenter un nouveau casse-tête juridique pour l'entreprise. Le laboratoire d'IA est confronté à un certain nombre de procès très médiatisés pour violation de droits d'auteur, dont un intenté par le New York Times et plusieurs intentés par plusieurs groupes d'auteurs, y compris de grands noms comme George R.R. Martin. Selon les experts, les litiges concernant le matériel protégé téléchargé sur le GPT Store pourraient avoir des répercussions plus immédiates.

« Les GPT modifient la relation entre OpenAI et ses utilisateurs d'une manière importante pour le droit d'auteur », affirme James Grimmelmann, professeur de droit de l'Internet à l'université de Cornell. Lorsque des sites Web permettent aux utilisateurs de télécharger leur propre contenu (comme YouTube qui permet à des personnes ordinaires de publier des vidéos personnelles), elles sont soumises au "Digital Millennium Copyright Act" (DMCA), une partie de la loi américaine sur le droit d'auteur qui permet aux détenteurs de droits d'auteur de porter plainte si leur propriété intellectuelle est diffusée sans leur autorisation.

Ainsi, si un Youtubeur publie une vidéo avec de la musique en arrière-plan qu'il n'a pas autorisée, les labels musicaux déposent parfois des plaintes et font retirer les matériels. Étant donné que le GPT Store permet aux développeurs de télécharger leur travail, elle est régie par ces règles. Conçu comme une loi antipiratage, le DMCA revêt aujourd'hui une importance capitale dans l'application du droit d'auteur, car elle offre aux détenteurs de droits d'auteur un moyen relativement rapide d'exiger que leurs œuvres soient retirées lorsque des personnes les mettent en ligne sans leur autorisation : les avis de retrait DMCA.

Les conditions d'OpenAI pour le GPT Store interdisent explicitement l'utilisation de contenu provenant de tiers sans les autorisations nécessaires, mais à l'heure actuelle, il n'existe aucun moyen simple pour les personnes extérieures de vérifier si leur matériel protégé par le droit d'auteur a été téléchargé par les développeurs qui créent les GPT. Cela signifie que les détenteurs de droits d'auteur concernés doivent partir à la chasse. Andersen explique qu'il s'appuie sur des mots clés pour passer au peigne fin le GPT Store afin de repérer les chatbots de conversation susceptibles d'utiliser le contenu des manuels scolaires de Praxis.

Il doit ensuite engager la conversation avec chaque chatbot qu'il trouve pour essayer de déterminer s'il a été formé sur les titres de Praxis. D'après lui, c'est un travail fastidieux, mais qui donne des résultats. Il rapporte avoir réussi à inciter plusieurs chatbots à reproduire des passages spécifiques des manuels édités par Praxis. « Il faut tromper le modèle pour qu'il se révèle », affirme-t-il. Après avoir trouvé les premiers exemples de livres de Praxis sur le GPT Store, Andersen a envoyé à OpenAI des avis de retrait DMCA. Mais la société n'a pas réagi jusqu'à ce qu'il demande l'aide du groupe Danish Rights Alliance (DRA).

La DRA représente les intérêts des travailleurs créatifs au Danemark. Elle a adopté une approche rigoureuse pour protéger les droits d'auteur de ses membres à l'ère de l'IA. L'année dernière, elle a obtenu qu'une collection de plus de 196 000 livres utilisés pour la formation à l'IA générative soit temporairement mise hors ligne en déposant des avis de retrait DMCA. Andersen indique que Praxis envisage d'intenter une action en justice contre OpenAI si les conditions du GPT Store ne s'améliorent pas. (D'autres éditeurs et organisations pourraient suivre.)

Il souhaiterait que l'entreprise et d'autres développeurs d'IA ajoutent des systèmes plus robustes qui recherchent les matériels protégés par le droit d'auteur dans les contenus RAG téléchargés, à l'instar du système Content ID mis en place pour protéger les contenus protégés par le droit d'auteur contre l'apparition sur YouTube. (Lorsqu'on a demandé à OpenAI s'il prévoit d'introduire un système similaire à Content ID, il n'a pas répondu directement, mais son porte-parole Kayla Wood a déclaré que l'entreprise contrôlait les GPT de manière proactive.)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des nombreux problèmes rencontrés par le GPT Store d'OpenAI ?
Comment les GPT créés à partir de matériels protégés par des droits d'auteurs pourraient impacter OpenAI ?

Voir aussi

OpenAI introduit des assistants d'IA personnalisés appelés « GPT » qui jouent différents rôles selon vos besoins et prévoit de rémunérer les créateurs dont les GPT seront utilisés

OpenAI lance GPT Store pour permettre aux utilisateurs de partager des chatbots personnalisés et être potentiellement rémunérés en fonction de « l'engagement des utilisateurs avec leurs GPT »

Les petites amies virtuelles animées à l'IA inondent déjà le nouveau GPT Store d'OpenAI : les petites amies virtuelles finiront-elles par devenir chose courante pour les humains dans le futur ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de fodger
Membre confirmé https://www.developpez.com
Le 17/04/2024 à 11:08
On continue toujours plus à déshumaniser nos sociétés... C'est triste.
3  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 17/04/2024 à 10:56
c'est dommage car dans cette histoire seul les riches y gagnent.

faire un ménage à 2 ça permets de réduire de beaucoup les couts (loyer, énergies, nourriture, et même les vacances à 2 c'est bien moins cher que tous seul), je planifie un voyage en asie avec ma femme, les hotels c'est toujours pour un couple (2 personnes), les guides que tu sois 1 ou 2 c'est le même tarif..etc...
Pour les voyages organisé, je tombe souvent sur des promos pour couple.

ça nécessite 1 logement auy lieu de 2, certe plus grand mais moins que 2 studios pour 2 célibataire. Donc atténue la pénurie de logement qu'on retrouve un peu partous en occident.
Et enfin une copine humaine c'est gratuit, pas un service payant au mois.

Seul les riches y gagne, car des populations de célibataires c'est plus de main d'eouvre donc moins cher (tous le monde doit travailler, l'homme ou la femme au foyer n'existe plus)
plus de logement à louer donc plus d'argent a se faire sur les rentes des multi propriétaire et hausse des loyer car pénurie

Et plus de consommation au global (2 abonnements électricité au lieu d'un, 2 télévisions, 2 laves linges, 2 laves vaisselles...etc.), ca enrichie les actionnaires.

Je me demande si la "libération de la femme" c'est pas un complot capitaliste quand on en ai désormais à vendre des copines IA...
et les sites de rencontre, leurs but c'est pas de rencontrer sa moitié mais c'est au contraire d'y rester et de payer un abonnement le plus longtemps possible. Les algos sont orienté dans ce sens, pas dans ton intérêt.
2  1 
Avatar de RenarddeFeu
Membre régulier https://www.developpez.com
Le 18/04/2024 à 6:59
Avec le temps, je trouve que les relations amoureuses sont de plus en plus superficielles et matérialiste. À défaut de gommer le côté superficiel, la petite amie IA élimine au moins l'aspect matérialiste.
1  0 
Avatar de chris_FR
Membre régulier https://www.developpez.com
Le 20/04/2024 à 14:00
<humour>
Ceci dit quand on y réflechit sur une petite amie IA, il y a une touche pause
</humour>
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 22/04/2024 à 8:23
Citation Envoyé par PC241167 Voir le message
Je ne juge pas les gens qui utilisent ce genre de truc, je trouve ça d’une tristesse absolue et quand on arrive à ça à mon avis c’est mal parti
La misere affective et sexuel c'est un gros problème de société.

Quand on est moche/qu'on a un gros handicape physique ou mental (problème de locution par exemple) ça fera fuir toute les femmes, avec les années on en vient a se résigner... soit si on a de l'argent on fait du passport bro et on ramene une femme d'un pays pauvre, avec le risque qu'elle se casse avec une pension une fois marié et nationalité
on fait de la chirurgie esthétique pour essayer de rattraper un peu , mais ca fait pas de miracle non plus et c'est risqué.... c'est un marché en pleine croissance depuis des années, coté femme mais aussi beaucoup coté homme, même chose avec les produits de cosmétique homme.
soit on pait des escortes
soit on en vient aux IA, qui on le mérite de simulé une vrai relation sur le long terme.

Ton message me fait croire qu'ils le font par plaisir/par choix hors ces personnes vont pas vers ce genre de relation pas par plaisir, ils le subissent car ils ont pas le choix... Ils sont en grosse dépression, en on marre de la solitude, beaucoup se suicide notamment.
un beau gosse de 1m80 bien musclé n'ira jamais la dedans... un "nain jaune" de 1m60 au visage repoussant, toujours puceau à 30ans n'aura pas le choix. Bien sur ils ont surement des amies femmes, des femmes rencontré qui lui ont dit quand il a commencé vouloir un peu plus "je te considère comme un frère"/"tu es sympa on reste amis", c'est une humiliation en réalité.

je prends le cas extrême, mais même pas besoin d’être moche, au 1er janvier 2017, parmi les hommes de 15 ans ou plus, 44,4 % sont célibataires et je parle de la france, en asie (corée du sud et japon) ces chiffres sont encore plus extrême.

et enfin y'a la fatigue. A combien de femmes il faut parler, répéter les mêmes choses (nom prénom, travail, hobbies...), pour avoir déja un simple rendez vous, et que ce rendez vous donne une relation sérieuse et durable ?
si demain je divorce, je pense pas que j'aurais la force de faire ca... envoyer un "coucou ca va" à 10000 femmes sur des sites de rencontre, en avoir 1% qui me réponde, et en avoir 1% de ces 1% que je rencontre et en avoir 0.1% de ces 1% de ces 1% avec qui ca match.
apparemment faut faire ca en moyenne au moins 1ans...
En moyenne, l’étude nous indique qu’il faudrait moins d’un an pour trouver l’amour (entendu au sens d’une relation sérieuse).
Plus précisément : 254 jours et 268 messages échangés.

c'est une moyenne ça, dans mon cas ça pourrait prendre plus je m'entretiens un minimum, j'évite de devenir gros et fait un peu de sport mais j'ai la tronche d'un informaticien pas d'un footballeur....

si je vais en Turquie pour me faire une mâchoire carré et que je mets a faire du sport intensif pour ressembler à Tibo InShape j'aurais peut être plus de succès cela dit...
1  0 
Avatar de PC241167
Membre du Club https://www.developpez.com
Le 20/04/2024 à 23:21
Je ne juge pas les gens qui utilisent ce genre de truc, je trouve ça d’une tristesse absolue et quand on arrive à ça à mon avis c’est mal parti
0  0