IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT fournit de fausses informations sur les personnes, et OpenAI admet qu'elle n'est pas en mesure de les corriger
Elle ne peut pas dire d'où viennent les données, ni quelles sont les données stockées

Le , par Jade Emy

7PARTAGES

8  0 
Selon Noyb, ChatGPT fournit de fausses informations sur les personnes, et OpenAI admet ouvertement qu'elle n'est pas en mesure de corriger les informations incorrectes, et qu'elle ne peut pas dire d'où viennent les données, ni quelles sont les données stockées.

Dans l'UE, le RGPD exige que les informations sur les individus soient exactes et que ceux-ci aient un accès complet aux informations stockées, ainsi que des informations sur la source. Or, il est surprenant de constater qu'OpenAI admet ouvertement qu'elle n'est pas en mesure de corriger les informations incorrectes sur ChatGPT. En outre, l'entreprise ne peut pas dire d'où proviennent les données ni quelles données ChatGPT stocke sur des personnes individuelles.

L'entreprise est parfaitement consciente de ce problème, mais ne semble pas s'en préoccuper. Au lieu de cela, OpenAI affirme simplement que "l'exactitude des faits dans les grands modèles de langage reste un domaine de recherche actif". C'est pourquoi Noyb a déposé une plainte contre OpenAI auprès de la DPA autrichienne.

ChatGPT continue d'halluciner - et même OpenAI ne peut l'arrêter. Le lancement de ChatGPT en novembre 2022 a déclenché un engouement sans précédent pour l'IA. Les gens ont commencé à utiliser le chatbot à toutes sortes de fins, y compris pour des tâches de recherche. Le problème est que, selon OpenAI elle-même, l'application ne fait que générer "des réponses aux demandes des utilisateurs en prédisant les prochains mots les plus probables qui pourraient apparaître en réponse à chaque demande".

En d'autres termes : Bien que l'entreprise dispose de nombreuses données d'entraînement, il n'y a actuellement aucun moyen de garantir que ChatGPT montre aux utilisateurs des informations factuellement correctes. Au contraire, les outils d'IA générative sont connus pour "halluciner" régulièrement, ce qui signifie qu'ils inventent simplement des réponses.


C'est une bonne chose pour les devoirs, mais pas pour les données sur les individus. Si des informations inexactes peuvent être tolérées lorsqu'un élève utilise ChatGPT pour l'aider à faire ses devoirs, elles sont inacceptables lorsqu'il s'agit d'informations concernant des personnes. Depuis 1995, la législation européenne exige que les données à caractère personnel soient exactes. Actuellement, cette exigence est inscrite à l'article 5 du RGPD.

Les personnes disposent également d'un droit de rectification en vertu de l'article 16 du GDPR si les données sont inexactes, et peuvent demander que les informations erronées soient supprimées. En outre, en vertu du "droit d'accès" prévu à l'article 15, les entreprises doivent être en mesure de montrer quelles sont les données qu'elles détiennent sur les personnes et quelles en sont les sources.

Maartje de Graaf, avocate spécialisée dans la protection des données chez Noyb :
Inventer de fausses informations est déjà problématique en soi. Mais lorsqu'il s'agit de fausses informations sur des personnes, les conséquences peuvent être graves. Il est clair que les entreprises sont actuellement incapables de faire en sorte que les chatbots tels que ChatGPT soient conformes à la législation de l'UE lorsqu'ils traitent des données concernant des personnes. Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des personnes. La technologie doit suivre les exigences légales, et non l'inverse.
Il n'est pas possible de se contenter d'inventer des données sur les personnes. Il s'agit d'un problème structurel. Selon un récent rapport du New York Times, "les chatbots inventent des informations au moins 3 % du temps - et jusqu'à 27 %". Pour illustrer ce problème, on peut se pencher sur le cas du plaignant (une personnalité publique) dans l'affaire Noyb contre OpenAI. Interrogé sur sa date d'anniversaire, ChatGPT a fourni à plusieurs reprises des informations erronées au lieu d'indiquer aux utilisateurs qu'il ne disposait pas des données nécessaires.

Aucun droit RGPD pour les individus capturés par ChatGPT ? Bien que la date de naissance du plaignant fournie par ChatGPT soit incorrecte, OpenAI a refusé sa demande de rectification ou d'effacement des données, arguant qu'il n'était pas possible de corriger les données. OpenAI affirme qu'elle peut filtrer ou bloquer des données sur certaines invites (comme le nom du plaignant), mais sans empêcher ChatGPT de filtrer toutes les informations concernant le plaignant. OpenAI n'a pas non plus répondu de manière adéquate à la demande d'accès du plaignant. Bien que le RGPD donne aux utilisateurs le droit de demander aux entreprises une copie de toutes les données personnelles traitées à leur sujet, OpenAI n'a divulgué aucune information sur les données traitées, leurs sources ou leurs destinataires.

Maartje de Graaf, avocate spécialisée dans la protection des données chez Noyb :
L'obligation de se conformer aux demandes d'accès s'applique à toutes les entreprises. Il est clairement possible de conserver des traces des données de formation qui ont été utilisées, ou au moins d'avoir une idée des sources d'information. Il semble qu'à chaque 'innovation', un autre groupe d'entreprises pense que ses produits ne doivent pas être conformes à la loi.
Jusqu'à présent, les efforts des autorités de contrôle sont restés vains. Depuis la popularité soudaine de ChatGPT, les outils d'IA générative ont rapidement fait l'objet d'un examen minutieux de la part des organismes européens de protection de la vie privée. L'autorité italienne de protection des données s'est notamment penchée sur l'inexactitude du chatbot en imposant une restriction temporaire du traitement des données en mars 2023. Quelques semaines plus tard, le Comité européen de la protection des données (CEPD) a mis en place un groupe de travail sur le ChatGPT afin de coordonner les efforts nationaux. Il reste à voir où cela mènera. Pour l'instant, OpenAI ne semble même pas prétendre pouvoir se conformer au RGPD de l'UE.


Plainte déposée. Noyb demande maintenant à l'autorité autrichienne de protection des données (DSB) d'enquêter sur le traitement des données d'OpenAI et sur les mesures prises pour garantir l'exactitude des données personnelles traitées dans le cadre des grands modèles de langage de l'entreprise. En outre, Noyb demande au DSB d'ordonner à OpenAI de se conformer à la demande d'accès du plaignant et de mettre son traitement en conformité avec le GDPR. Enfin, Noyb demande à l'autorité d'imposer une amende pour garantir la conformité future. Il est probable que cette affaire soit traitée dans le cadre de la coopération européenne.

À propos de Noyb :

Noyb utilise les meilleures pratiques des groupes de défense des droits des consommateurs, des militants de la protection de la vie privée, des pirates informatiques et des initiatives de technologie juridique et les fusionne en une plateforme européenne stable d'application de la loi. Avec les nombreuses possibilités d'application du règlement européen sur la protection des données (RGPD), Noyb est en mesure de soumettre des cas de protection de la vie privée d'une manière beaucoup plus efficace qu'auparavant. En outre, noyb suit l'idée d'un litige ciblé et stratégique afin de renforcer votre droit à la vie privée.

Noyb utilisera également des initiatives de relations publiques et médiatiques pour souligner et garantir votre droit à la vie privée sans avoir à aller devant les tribunaux. En fin de compte, noyb est conçu pour unir ses forces avec les organisations, les ressources et les structures existantes afin de maximiser l'impact du RGPD, tout en évitant les structures parallèles.

Source : Noyb

Et vous ?

Pensez-vous que cette plainte de Noyb est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

ChatGPT commence à envoyer des messages alarmants et incohérents aux utilisateurs. « ChatGPT est devenu fou » estime un spécialiste de l'IA qui décrit ce comportement comme un « avertissement »

L'application de chatbot d'intelligence artificielle d'OpenAI, ChatGPT, enfreint les règles de protection des données du RGPD, selon l'autorité italienne de protection des données

OpenAI doit défendre les affabulations de ChatGPT après avoir échoué dans son procès pour diffamation. Les utilisateurs pourraient bientôt savoir si les résultats inexacts l'IA seront tolérés

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Seb33300
Membre émérite https://www.developpez.com
Le 10/06/2024 à 11:35
L’erreur de ChatGPT qui a coûté 10 000 dollars
ChatGPT c'est un outils, le responsable ça reste le développeur...

Sinon, la prochaine fois que je déploie un bug je dirais que c'est la faute de mon clavier...
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 11/07/2024 à 7:13
Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
Pendant que les société d'IA lèvent des millions de dollar d'investissement.
4  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 11/07/2024 à 11:20
Citation Envoyé par totozor Voir le message
Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
Pendant que les société d'IA lèvent des millions de dollar d'investissement.
Si je lis bien, l'émergence de l'IA est basée sur l'esclavage.
3  0 
Avatar de topic
Nouveau membre du Club https://www.developpez.com
Le 10/06/2024 à 14:34
Citation Envoyé par Fagus Voir le message
c'est dommage qu'ils n'expliquent pas mieux leur code ou c'est moi qui n'ai pas compris. Je ne connais pas SQL alchemy.

Code : Sélectionner tout
str(uuid.uuid4())
c'est sensé être relativement unique, sauf s'il ne créent qu'une seule instance de la classe subscription par serveur ce qu'ils ont l'air de dire. En ce cas c'est une erreur de logique de créer l'identifiant unique là plutôt que dans un objet par utilisateur, mais bon, même sans chatgpt ça arrive de faire des erreurs de logique surtout quand on ne dort pas.

Ce qui est plus étrange, c'est d'écrire quelque chose dans une base sans lever quelque part une erreur si la base ne crée pas les entrées...

De ce que je comprends de la doc de Django https://docs.djangoproject.com/en/5....ields/#default c'est que default prend une valeur ou un callable

En faisant
Code : Sélectionner tout
default=str(uuid.uuid4())
str(uuid.uuid4()) génère un uuid4 qui est casté en string, ça devient donc une valeur qui ne changera plus.
Pour ne pas avoir le problème ils auraient dû comme ils le disent faire une lamba ou une fonction

Code : Sélectionner tout
1
2
3
4
def generate_uuid4():
    return str(uuid.uuid4())

default=generate_uuid4
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 27/06/2024 à 17:38
Citation Envoyé par Stéphane le calme Voir le message
C’est un positionnement qui rejoint celui d’IBM qui suggère de recruter sur la base des compétences plutôt qu’en se fondant sur les diplômes universitaires. Même Tim Cook est d’avis « qu'un diplôme universitaire de quatre ans n’est pas nécessaire pour maîtriser le codage informatique. » Après, la plus grosse difficulté est peut-être de répondre à la question : qu’est-ce qu’être compétent ?
Comme si Tim Cook y connaissait quoi que ce soit à l'informatique. Le gars est compétent pour faire faire des téléphones à des personnes sous-payées dans des pays du Tiers Monde, c'est tout.

Pour ce qui est de recruter sur les compétences, c'est bien entendu une bonne idée. Par contre un bootcamp ne remplace pas des études ou une longue expérience. C'est ce qui fait qu'un développeur sera capable de faire son travail au lieu de réinventer la roue ou de choisir des solutions peu efficaces. Il n'y a qu'à regarder le développement web et tous ces sites et plateformes pas sécurisées, lentes, boguées pour se rendre compte qu'il y a bien un problème de compétences, et qu'avoir deux jours de javascript/PHP dans sa vie ne suffit pas pour faire un développeur.

Là, j'ai plutôt l'impression qu'ils cherchent à former des personnes qui ne seront capables de travailler qu'avec leurs outils à base d'IA.

Toute cette agitation dans les médias autour des IA devient vraiment ridicule: on a bien compris que IA = pognon pour les gigantesques entreprises. Pas besoin de nous le rappeler tous les jours.

Citation Envoyé par Stéphane le calme Voir le message
Alternatives et solutions : quelles autres méthodes d’évaluation pourraient être mises en place pour garantir l’intégrité académique tout en tirant parti des avantages de l’IA ?
Quels avantages et pour qui? On s'en fout d'avantager les GAFAM.

Pour le reste, il suffit de mettre les étudiants dans des conditions où ils ne peuvent pas accéder aux services d'IA, et ils n'auront pas le choix. Comment faisait-on passer des examens avant l'arrivée d'Internet et des smartphones??

Citation Envoyé par Stéphane le calme Voir le message
« Les diplômes universitaires perdront en importance au fur et à mesure de la montée en puissance de l'IA », d'après le vice-président de LinkedIn
Ah ben c'est sûr que le gars ne va pas dire autre chose: le groupe auquel il appartient (Microsoft, une GAFAM), investit massivement dans OpenIA, et tout le bordel. S'il tient à son poste de directeur, il a tout intérêt à continuer de raconter ce genre de conneries.

Sans compter qu'on vit en Europe: oui, vous pourrez trouver un travail en société de service avec peu de diplômes, mais par contre les RH vous le rappelleront chaque année quand vous demanderez une augmentation/réévaluation pour toucher la même chose que vos collègues plus diplômés.
2  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 09/07/2024 à 12:24
Citation Envoyé par Anthony Voir le message
VALL-E 2 : la nouvelle technologie vocale d'IA de Microsoft atteint pour la première fois la parité avec l'humain, elle est si aboutie que par peur d'une utilisation abusive, elle ne sera pas encore publiée
Alors que l'intelligence artificielle, on peut créer des virus avec, mais ça ne pose pas de problème.
C'est quoi la différence ?
Les remarques émises au sujet de l'intelligence artificielle ont fini par être entendues, ou la synthèse vocale est tellement mieux aboutie ? Ou retarder sa parution aide à promouvoir cette idée ?

Il était question d'un moratoire sur l'IA, je n'ai pas bien suivi, ça ...
2  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 09/07/2024 à 12:27
Citation Envoyé par VBurel Voir le message
Soit plus de 50 milliards investis dans les startup pour seconde trimestre 2024 !?

Et pendant ce temps, l'Europe a investi combien dans les IT ? juste par curiosité :-)

au moins 1 milliard depuis le début de l'année, rassurez nous ! ?
Dans quel but, exactement ?
Un projet va fonctionner mieux parce qu'il est financé par l'Europe ?
2  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 10/06/2024 à 9:44
Combien de ligne de code comme ça sont déjà dans la nature ? Et la encore c'est une erreur, c'est pas un truc malicieux.

Hey Claude comment je peux supprimer une app de mon linux ?
Citation Envoyé par Chat-GPT
rm -rf /
1  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 10/06/2024 à 11:57
c'est dommage qu'ils n'expliquent pas mieux leur code ou c'est moi qui n'ai pas compris. Je ne connais pas SQL alchemy.

Code : Sélectionner tout
str(uuid.uuid4())
c'est sensé être relativement unique, sauf s'il ne créent qu'une seule instance de la classe subscription par serveur ce qu'ils ont l'air de dire. En ce cas c'est une erreur de logique de créer l'identifiant unique là plutôt que dans un objet par utilisateur, mais bon, même sans chatgpt ça arrive de faire des erreurs de logique surtout quand on ne dort pas.

Ce qui est plus étrange, c'est d'écrire quelque chose dans une base sans lever quelque part une erreur si la base ne crée pas les entrées...
1  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 10/06/2024 à 22:42
cette mesaventure va se generaliser.

le service rendu et la rapidité sont la,
-- ce qui va nous rendre feignant,
---- ce qui va nous faire perdre nos competence (comme celle que la calculette a eu sur notre capacité a faire des calculs de tete)
------ ce qui nous fera arreter se savoir apprendre differemment de que l'ia nous dira,
-------- ce qui nous fera arreter d'innover/creer par feigenantise ou parce que qu'on ne saura plus comment faire,
---------- ce qui va nous rendre dependant de l'ia,

ou alors, on se dit que l'ia n'est qu'un outil de blending avancé,
-- mais que sans nous,
---- sans notre recherche de la difference,
------ sans notre innovation,
-------- sans notre ideal,
---------- sans notre vision de ce que doit etre l'humanité,
------------ l'ia n'a rien a ce mettre sous la dent,
-------------- donc elle doit nous aider pas nous remplacer.
1  0