IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT fournit de fausses informations sur les personnes, et OpenAI admet qu'elle n'est pas en mesure de les corriger
Elle ne peut pas dire d'où viennent les données, ni quelles sont les données stockées

Le , par Jade Emy

7PARTAGES

8  0 
Selon Noyb, ChatGPT fournit de fausses informations sur les personnes, et OpenAI admet ouvertement qu'elle n'est pas en mesure de corriger les informations incorrectes, et qu'elle ne peut pas dire d'où viennent les données, ni quelles sont les données stockées.

Dans l'UE, le RGPD exige que les informations sur les individus soient exactes et que ceux-ci aient un accès complet aux informations stockées, ainsi que des informations sur la source. Or, il est surprenant de constater qu'OpenAI admet ouvertement qu'elle n'est pas en mesure de corriger les informations incorrectes sur ChatGPT. En outre, l'entreprise ne peut pas dire d'où proviennent les données ni quelles données ChatGPT stocke sur des personnes individuelles.

L'entreprise est parfaitement consciente de ce problème, mais ne semble pas s'en préoccuper. Au lieu de cela, OpenAI affirme simplement que "l'exactitude des faits dans les grands modèles de langage reste un domaine de recherche actif". C'est pourquoi Noyb a déposé une plainte contre OpenAI auprès de la DPA autrichienne.

ChatGPT continue d'halluciner - et même OpenAI ne peut l'arrêter. Le lancement de ChatGPT en novembre 2022 a déclenché un engouement sans précédent pour l'IA. Les gens ont commencé à utiliser le chatbot à toutes sortes de fins, y compris pour des tâches de recherche. Le problème est que, selon OpenAI elle-même, l'application ne fait que générer "des réponses aux demandes des utilisateurs en prédisant les prochains mots les plus probables qui pourraient apparaître en réponse à chaque demande".

En d'autres termes : Bien que l'entreprise dispose de nombreuses données d'entraînement, il n'y a actuellement aucun moyen de garantir que ChatGPT montre aux utilisateurs des informations factuellement correctes. Au contraire, les outils d'IA générative sont connus pour "halluciner" régulièrement, ce qui signifie qu'ils inventent simplement des réponses.


C'est une bonne chose pour les devoirs, mais pas pour les données sur les individus. Si des informations inexactes peuvent être tolérées lorsqu'un élève utilise ChatGPT pour l'aider à faire ses devoirs, elles sont inacceptables lorsqu'il s'agit d'informations concernant des personnes. Depuis 1995, la législation européenne exige que les données à caractère personnel soient exactes. Actuellement, cette exigence est inscrite à l'article 5 du RGPD.

Les personnes disposent également d'un droit de rectification en vertu de l'article 16 du GDPR si les données sont inexactes, et peuvent demander que les informations erronées soient supprimées. En outre, en vertu du "droit d'accès" prévu à l'article 15, les entreprises doivent être en mesure de montrer quelles sont les données qu'elles détiennent sur les personnes et quelles en sont les sources.


Maartje de Graaf, avocate spécialisée dans la protection des données chez Noyb :
Inventer de fausses informations est déjà problématique en soi. Mais lorsqu'il s'agit de fausses informations sur des personnes, les conséquences peuvent être graves. Il est clair que les entreprises sont actuellement incapables de faire en sorte que les chatbots tels que ChatGPT soient conformes à la législation de l'UE lorsqu'ils traitent des données concernant des personnes. Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des personnes. La technologie doit suivre les exigences légales, et non l'inverse.
Il n'est pas possible de se contenter d'inventer des données sur les personnes. Il s'agit d'un problème structurel. Selon un récent rapport du New York Times, "les chatbots inventent des informations au moins 3 % du temps - et jusqu'à 27 %". Pour illustrer ce problème, on peut se pencher sur le cas du plaignant (une personnalité publique) dans l'affaire Noyb contre OpenAI. Interrogé sur sa date d'anniversaire, ChatGPT a fourni à plusieurs reprises des informations erronées au lieu d'indiquer aux utilisateurs qu'il ne disposait pas des données nécessaires.

Aucun droit RGPD pour les individus capturés par ChatGPT ? Bien que la date de naissance du plaignant fournie par ChatGPT soit incorrecte, OpenAI a refusé sa demande de rectification ou d'effacement des données, arguant qu'il n'était pas possible de corriger les données. OpenAI affirme qu'elle peut filtrer ou bloquer des données sur certaines invites (comme le nom du plaignant), mais sans empêcher ChatGPT de filtrer toutes les informations concernant le plaignant. OpenAI n'a pas non plus répondu de manière adéquate à la demande d'accès du plaignant. Bien que le RGPD donne aux utilisateurs le droit de demander aux entreprises une copie de toutes les données personnelles traitées à leur sujet, OpenAI n'a divulgué aucune information sur les données traitées, leurs sources ou leurs destinataires.

Maartje de Graaf, avocate spécialisée dans la protection des données chez Noyb :
L'obligation de se conformer aux demandes d'accès s'applique à toutes les entreprises. Il est clairement possible de conserver des traces des données de formation qui ont été utilisées, ou au moins d'avoir une idée des sources d'information. Il semble qu'à chaque 'innovation', un autre groupe d'entreprises pense que ses produits ne doivent pas être conformes à la loi.
Jusqu'à présent, les efforts des autorités de contrôle sont restés vains. Depuis la popularité soudaine de ChatGPT, les outils d'IA générative ont rapidement fait l'objet d'un examen minutieux de la part des organismes européens de protection de la vie privée. L'autorité italienne de protection des données s'est notamment penchée sur l'inexactitude du chatbot en imposant une restriction temporaire du traitement des données en mars 2023. Quelques semaines plus tard, le Comité européen de la protection des données (CEPD) a mis en place un groupe de travail sur le ChatGPT afin de coordonner les efforts nationaux. Il reste à voir où cela mènera. Pour l'instant, OpenAI ne semble même pas prétendre pouvoir se conformer au RGPD de l'UE.


Plainte déposée. Noyb demande maintenant à l'autorité autrichienne de protection des données (DSB) d'enquêter sur le traitement des données d'OpenAI et sur les mesures prises pour garantir l'exactitude des données personnelles traitées dans le cadre des grands modèles de langage de l'entreprise. En outre, Noyb demande au DSB d'ordonner à OpenAI de se conformer à la demande d'accès du plaignant et de mettre son traitement en conformité avec le GDPR. Enfin, Noyb demande à l'autorité d'imposer une amende pour garantir la conformité future. Il est probable que cette affaire soit traitée dans le cadre de la coopération européenne.

À propos de Noyb :

Noyb utilise les meilleures pratiques des groupes de défense des droits des consommateurs, des militants de la protection de la vie privée, des pirates informatiques et des initiatives de technologie juridique et les fusionne en une plateforme européenne stable d'application de la loi. Avec les nombreuses possibilités d'application du règlement européen sur la protection des données (RGPD), Noyb est en mesure de soumettre des cas de protection de la vie privée d'une manière beaucoup plus efficace qu'auparavant. En outre, noyb suit l'idée d'un litige ciblé et stratégique afin de renforcer votre droit à la vie privée.

Noyb utilisera également des initiatives de relations publiques et médiatiques pour souligner et garantir votre droit à la vie privée sans avoir à aller devant les tribunaux. En fin de compte, noyb est conçu pour unir ses forces avec les organisations, les ressources et les structures existantes afin de maximiser l'impact du RGPD, tout en évitant les structures parallèles.

Source : Noyb

Et vous ?

Pensez-vous que cette plainte de Noyb est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

ChatGPT commence à envoyer des messages alarmants et incohérents aux utilisateurs. « ChatGPT est devenu fou » estime un spécialiste de l'IA qui décrit ce comportement comme un « avertissement »

L'application de chatbot d'intelligence artificielle d'OpenAI, ChatGPT, enfreint les règles de protection des données du RGPD, selon l'autorité italienne de protection des données

OpenAI doit défendre les affabulations de ChatGPT après avoir échoué dans son procès pour diffamation. Les utilisateurs pourraient bientôt savoir si les résultats inexacts l'IA seront tolérés

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message

Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message

L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message

Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2024 à 15:52
Moi si je dis, il faut bien que cambriole 25 maisons par ans, sinon je ne sais pas partir en vacances, je suis certains que ça finira mal pour moi. Mais lui, le Altman, la nouvelle coqueluche du moment, il peut se permettre de dire qu'il ne peut gagner des millions qu'en volant le travail des autres, et ça passe crème.
7  0 
Avatar de Seb33300
Membre émérite https://www.developpez.com
Le 10/06/2024 à 11:35
L’erreur de ChatGPT qui a coûté 10 000 dollars
ChatGPT c'est un outils, le responsable ça reste le développeur...

Sinon, la prochaine fois que je déploie un bug je dirais que c'est la faute de mon clavier...
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2024 à 16:21
Citation Envoyé par Stéphane le calme Voir le message

La controverse autour de l’utilisation des matériaux protégés par le droit d’auteur par OpenAI soulève des questions cruciales sur l’équilibre entre l’innovation technologique et la protection des droits des créateurs. Alors que l’IA continue de progresser, il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.
Je suis en total déssacord. C'est un principe utilisée vieux comment le monde. La question pose il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.

C'est déjà éliminer la question du vol de donnée, pour qu'on accepte un "état de fait", et que la seule question qu'on se pose, soit de savoir si on doit choisr entre X ou Y pour régler le problème. C'est pourtant simple, tout vol est interdit. Et TOUS les acteurs de l'IA on procédé de la sorte, ils devraient selon en répondre devant un tribunal.

Parce que si on trouve normal que des entreprisent vol le contenus générer par d'autre, et que leur argument c'est "on ne peut pas faire autrement que de voler" pour faire fructifier notre buisness, alors, on doit accepter qu'on rentre dans un magasin, qu'on vole de dont en a envie besoin, et si on se fait choper à sortie, dire "je ne peux pas faire autrement que de voler" pour ne pas crever la dalle, et on ne devrait pas avoir de soucis. Et ça m'étonnerait très fort qu'une solution du type "comment règler le soucis entre ne pas crever" tout en laissant les magasin faire du pognon me sera proposée.

Si l'IA ne peux fonctionner qu'en volant, et bien on devrait tout simplement interdire ces dernières, sous peine de prison. Je ne vois pas pourquoi on ferait une exception "par ce que ça empêcherait l'innovation". Que ces messieurs, puisse qu'ils ne vont pas en prison, retourne dans leur entreprise et développe "une vrai" IA, sans devoir voler le contenu générer par d'autres. Mais c'est impossible en l'état actuelle de la technologie. Et qu'on ferme ces entreprises ne fera pas arrêter le monde de tourner, on vivait bien avant cette "ridicule technologie", et on vivra bien sans. Leur seul but, c'est de faire du pognon, et en plus en se basant sur le travail d'autres. C'est des méthodes de gangster et les gangster, on les mets en Prison.

Source : OpenAI (1, 2)

Citation Envoyé par Stéphane le calme Voir le message

Et vous ?
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun. Si l'IA était une innovation, elle devrait faire son taf sans voler les créateurs de contenus. Je vous pose la question à vous "Stéphane le calme", que feriez-vous si je récupérait l'ensemble de ce site, et que je l'utilise avec un autre emballage, que je fais du pognon avec, et que si vous n'êtes pas d'accord, je puisse vous répondre "je suis obligé de voler ce site, parce qu'aussi non, je ne sais pas faire du pognon ?" Quelle réaction auriez vous ? Tenteriez vous de "proposer une solution" qui nous satisface tous les deux ? Je ne pense pas, vous m'attaquerier en juste et je passerais surement par la case "prison".

J'aimerai bien avoir votre réponse.

Cordialement.

BàV et Peace & Love.
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2024 à 23:38


Citation Envoyé par floyer Voir le message
Dire « c’est du vol » est un peu rapide…
Je ne trouve pas, d'autant plus que certains "grand patron" osent même dire ouvertement (la je cite l'ex-PDG de Google) :
Ne vous préoccupez pas des droits d'auteur, et prenez (volez) tous ce dont vous avez besoin, vous gagnerez tellement d'argent, que vous pourrez vous payer les meilleurs avocat du monde pour vous évités des soucis par la suite.

Citation Envoyé par floyer Voir le message

le vol est défini par la loi et une loi peut se changer (par le législateur bien sûr). En l’occurrence ce n’est pas du vol, mais une contrefaçon.
En fait, c'est les 2 ensembles. D'abord du vole de données, puis de la contrefaçon en régurgitant ce qui a été volé.

Citation Envoyé par floyer Voir le message

Le code de propriété intellectuelle définit d’ailleurs des modalités qui réduisent le droit d’auteur (courtes citations, parodie, pour les logiciels, copie de sauvegarde, etc…). Sur les brevets, il y a une expiration… on pourrait imaginer une clause d’exclusion pour l’IA.
Si on ne parle même que du code (sans parler des mucisiens ou autres artiste), on ne parle pas de "courtes" citations (mais d'écriture d'une énorme majorité de code en se basant sur ce qui a été volé au départ), ce n'est pas non plus de la parodie, ce n'est pas une copie de sauvegarde, etc...

Citation Envoyé par floyer Voir le message
Ainsi, la question est que gagnerait ou que perdrait-on à réduire les droits d’auteur au profit de l’IA. Je pense plutôt que la concurrence de l’IA est déloyale est mènerait à un appauvrissement de notre capital culturel à moyen terme. Légiférer pour permettre des « œuvres » imitant trop facilement ce qui est produit actuellement ou simplement ne permettant pas à beaucoup d’artistes de vivre ne me semble pas une bonne idée.
Il ne faut pas voir le problème sous cet angle, sinon ça veut dire qu'on négocie avec des voleurs. La question n'est pas de savoir ce qu'on gagnerait ou perdrait à réduire les droits d'auteur au profit de l'IA.

Si les "IA" était vraiment des "IA", et qu'elles produisent un contenus "original", je n'ai rien à redire, je n'ai rien contre la concurrence.

Mais on est très loin de ça ici. Et tous ceux qui se sont engoufrés dans cette voie en étaient parfaitement au courant.

Un peintre qui fait une copie d'un Rubens et la vend comme si c'était un authentique Rubens, c'est la prison. Point.

Si l'IA régurgite du code volé, c'est la prison pour les responsable. Point.

quand tu dis : Je pense plutôt que la concurrence de l’IA est déloyale est mènerait à un appauvrissement de notre capital culturel à moyen terme. Légiférer pour permettre des « œuvres » imitant trop facilement ce qui est produit actuellement ou simplement ne permettant pas à beaucoup d’artistes de vivre ne me semble pas une bonne idée.

Oui, ce serait un appauvrissement du capital culturel, quoique, en matière de musique, le niveau global et l'innovation est déjà tellement réduite, que les musiciens se sont déjà chargé eux-même de cela tout seuls . Tout se ressemble, tout est d'un niveau au rat des paquerette, fade, etc.

Il y bien longtemps qu'on a plus entendu un artiste produire quelque chose qu'un Balavoine, un Sardou auraient pu produire, ou qu'un artiste comme Coluche aurait pu dire. Tout cela n'est plus "autorisé", sous peine d'être directement taxé d'être d'extrême droite.

Il en faut aussi de la "variété", mais on manque cruellement de chanteur ou de personnalité public qui dérengeraient la pensée unique à laquel on nous soumet depuis la fin des 80's. Un vianey, un christophe maé, un Bioley, Pagni, Bruel, et tout ces artistes "bien dans le rang de la pensée unique bobo", a un moment ça finit par être soulant, pour rester poli.

Légiférer ne servirait à rien. Le point de départ, c'est le vol des données pour alimenter les LLM. Rien d'innovant ne peut sortir d'une IA. Il y aura dans tous les domaines un nivellement par le bas, plus d'originalité, de nouveau concept, de nouvelles idées.

Si une IA sort un disque "à la beattles" ou "à la ABBA", ça devrait au minimum être mentionné. On fait chanter macron, avec sa voix, mais déformée pour qu'elle reprenne le "style" d'Aznavour. Ce n'est rien de nouveau, c'est juste une contrefaçons faites avec des données volée. Chercher plus loin, c'est déjà accepter le vol initiale. Je ne vois pourquoi on ferait une exception pour l'IA.

BàT. et Peace & Love.
6  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 11/07/2024 à 7:13
Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
Pendant que les société d'IA lèvent des millions de dollar d'investissement.
5  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 11/07/2024 à 11:20
Citation Envoyé par totozor Voir le message
Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
Pendant que les société d'IA lèvent des millions de dollar d'investissement.
Si je lis bien, l'émergence de l'IA est basée sur l'esclavage.
4  0 
Avatar de topic
Nouveau membre du Club https://www.developpez.com
Le 10/06/2024 à 14:34
Citation Envoyé par Fagus Voir le message
c'est dommage qu'ils n'expliquent pas mieux leur code ou c'est moi qui n'ai pas compris. Je ne connais pas SQL alchemy.

Code : Sélectionner tout
str(uuid.uuid4())
c'est sensé être relativement unique, sauf s'il ne créent qu'une seule instance de la classe subscription par serveur ce qu'ils ont l'air de dire. En ce cas c'est une erreur de logique de créer l'identifiant unique là plutôt que dans un objet par utilisateur, mais bon, même sans chatgpt ça arrive de faire des erreurs de logique surtout quand on ne dort pas.

Ce qui est plus étrange, c'est d'écrire quelque chose dans une base sans lever quelque part une erreur si la base ne crée pas les entrées...

De ce que je comprends de la doc de Django https://docs.djangoproject.com/en/5.0/ref/models/fields/#default c'est que default prend une valeur ou un callable

En faisant
Code : Sélectionner tout
default=str(uuid.uuid4())

str(uuid.uuid4()) génère un uuid4 qui est casté en string, ça devient donc une valeur qui ne changera plus.
Pour ne pas avoir le problème ils auraient dû comme ils le disent faire une lamba ou une fonction

Code : Sélectionner tout
1
2
3
4
def generate_uuid4():
    return str(uuid.uuid4())

default=generate_uuid4
2  0