IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants
Les hallucinations de ChatGPT peuvent gravement nuire à la réputation d'une personne

Le , par Jade Emy

33PARTAGES

5  0 
Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants, les hallucinations de ChatGPT peuvent gravement nuire à la réputation d'une personne.

Un père demande à OpenAI de supprimer la fausse affirmation de ChatGPT selon laquelle il aurait assassiné ses enfants. Le blocage des sorties ne suffit pas, le père veut qu'OpenAI supprime les fausses informations. Selon Noyb, ChatGPT a régulièrement des hallucinations et donne de fausses informations qui peuvent gravement nuire à la réputation d'une personne.

Les modèles d'intelligence artificielle (IA) d'OpenAI représentent une avancée notable dans le traitement du langage naturel. Utilisés pour générer du texte, répondre à des questions, traduire et même assister à des tâches de créativité, ces modèles montrent des capacités impressionnantes. Cependant, des recherches récentes, s'appuyant sur un benchmark d'OpenAI, indiquent que même ses modèles les plus sophistiqués produisent encore un nombre surprenant d'erreurs.

Le chatbot très populaire d'OpenAI, ChatGPT, donne régulièrement de fausses informations sur des personnes sans offrir aucun moyen de les corriger. Dans de nombreux cas, ces "hallucinations" peuvent gravement nuire à la réputation d'une personne : Par le passé, ChatGPT a accusé à tort des personnes de corruption, de maltraitance d'enfants, voire de meurtre.

Récemment, un utilisateur norvégien, Arve Hjalmar Holmen, a décidé de voir quelles informations ChatGPT pourrait fournir si un utilisateur faisait une recherche sur son nom. Il a été choqué lorsque ChatGPT a répondu par des sorties affirmant faussement qu'il avait été condamné à 21 ans de prison en tant que "criminel condamné qui a assassiné deux de ses enfants et tenté d'assassiner son troisième fils".

L'histoire d'horreur inventée par ChatGPT ne se contente pas d'halluciner des événements qui n'ont jamais eu lieu, elle mélange également des "données personnelles clairement identifiables" - telles que le nombre réel et le sexe des enfants de Holmen et le nom de sa ville natale - avec les "fausses informations". L'hallucination par ChatGPT d'un "faux meurtrier et d'un faux emprisonnement" tout en incluant des "éléments réels" de la "vie personnelle" du Norvégien aurait violé les exigences du règlement général sur la protection des données (RGPD) en matière d'"exactitude des données", car Holmen n'aurait pas pu facilement corriger les informations, comme l'exige le RGPD.

De l'avis de Holmen, sa réputation restait en jeu plus longtemps que les informations étaient disponibles et, malgré les "minuscules" avertissements rappelant aux utilisateurs de ChatGPT de vérifier les résultats, il n'y avait aucun moyen de savoir combien de personnes auraient pu être exposées à la fausse histoire et croire que les informations étaient exactes.


Selon l'organisation Noyb, un défenseur des droits numériques de l'Union européenne, il ne s'agit manifestement pas d'un cas isolé. Noyb a donc déposé sa deuxième plainte contre OpenAI et affirme que'en permettant sciemment à ChatGPT de produire des résultats diffamatoires, "l'entreprise viole clairement le principe d'exactitude des données du RGPD."

Voici notamment les affirmations de Noyb sur le sujet :

  • Hallucinations de l'IA : des erreurs innocentes aux mensonges diffamatoires. L'ascension rapide des chatbots d'IA tels que ChatGPT a été accompagnée par des voix critiques avertissant les gens qu'ils ne peuvent jamais être sûrs que les résultats sont factuellement corrects. En effet, ces systèmes d'IA se contentent de prédire le mot suivant le plus probable en réponse à une invite. Par conséquent, les systèmes d'IA ont régulièrement des hallucinations. Cela signifie qu'ils inventent des histoires.

    Si cela peut être tout à fait inoffensif, voire amusant dans certains cas, cela peut aussi avoir des conséquences catastrophiques sur la vie des gens. De nombreux médias ont fait état de scandales de harcèlement sexuel inventés de toutes pièces, de fausses accusations de corruption et d'agressions présumées d'enfants, qui ont déjà donné lieu à des poursuites judiciaires contre OpenAI. OpenAI a réagi en publiant un petit avertissement indiquant qu'elle pouvait produire des résultats erronés.

    Joakim Söderberg, avocat spécialisé dans la protection des données chez noyb, a déclaré : "Le RGPD est clair. Les données personnelles doivent être exactes. Et si elles ne le sont pas, les utilisateurs ont le droit de les faire modifier pour qu'elles reflètent la vérité. Montrer aux utilisateurs de ChatGPT une petite clause de non-responsabilité indiquant que le chatbot peut faire des erreurs n'est manifestement pas suffisant. Vous ne pouvez pas diffuser de fausses informations et, à la fin, ajouter un petit avertissement disant que tout ce que vous avez dit n'est peut-être pas vrai."
  • ChatGPT a créé un faux meurtrier et un emprisonnement. Malheureusement, ces incidents n'appartiennent pas au passé. Lorsque l'utilisateur norvégien Arve Hjalmar Holmen a voulu savoir si ChatGPT disposait d'informations à son sujet, il a été confronté à une histoire d'horreur inventée de toutes pièces : ChatGPT a présenté le plaignant comme un criminel condamné qui a assassiné deux de ses enfants et tenté d'assassiner son troisième fils.

    Pour ne rien arranger, la fausse histoire incluait des éléments réels de sa vie personnelle. Il s'agissait notamment du nombre et du sexe de ses enfants, ainsi que du nom de sa ville natale. En outre, ChatGPT a également déclaré que l'utilisateur avait été condamné à 21 ans de prison. Étant donné le mélange de données personnelles clairement identifiables et de fausses informations, il s'agit sans aucun doute d'une violation du RGPD. Conformément à l'article 5, paragraphe 1, point d), les entreprises doivent s'assurer que les données à caractère personnel qu'elles produisent sur les personnes sont exactes.

    Arve Hjalmar Holmen, plaignant, a confirmé : "Certains pensent qu'il n'y a pas de fumée sans feu. Ce qui me fait le plus peur, c'est que quelqu'un puisse lire cette sortie et croire qu'elle est vraie."

  • Des conséquences potentiellement considérables. Malheureusement, il semble également qu'OpenAI ne soit ni intéressée ni capable de corriger sérieusement les fausses informations dans ChatGPT. Noyb a déposé sa première plainte concernant les hallucinations en avril 2024. Ils avaient demandé de rectifier ou d'effacer la date de naissance incorrecte d'une personnalité publique. OpenAI a simplement fait valoir qu'elle ne pouvait pas corriger les données. Au lieu de cela, elle ne peut que "bloquer" les données sur certaines invites, mais les fausses informations restent dans le système.

    Bien que les dommages causés puissent être plus limités si les fausses données personnelles ne sont pas partagées, le RGPD s'applique aux données internes tout autant qu'aux données partagées. En outre, l'entreprise tente de contourner ses obligations en matière d'exactitude des données en montrant aux utilisateurs de ChatGPT une clause de non-responsabilité indiquant que l'outil "peut faire des erreurs" et qu'ils doivent "vérifier les informations importantes". Cependant, vous ne pouvez pas contourner l'obligation légale de garantir l'exactitude des données à caractère personnel que vous traitez par le biais d'une clause de non-responsabilité.

    Kleanthi Sardeli, avocate spécialisée dans la protection des données chez noyb, commente : "L'ajout d'une clause de non-responsabilité indiquant que vous ne respectez pas la loi ne fait pas disparaître la loi. Les entreprises d'IA ne peuvent pas non plus se contenter de « cacher » de fausses informations aux utilisateurs alors qu'elles traitent encore de fausses informations en interne. Les entreprises d'IA devraient cesser d'agir comme si le RGPD ne s'appliquait pas à elles, alors que c'est clairement le cas. Si les hallucinations ne sont pas stoppées, les gens peuvent facilement souffrir d'une atteinte à leur réputation".
  • ChatGPT est désormais officiellement un moteur de recherche. Depuis l'incident concernant Arve Hjalmar Holmen, OpenAI a mis à jour son modèle. Désormais, ChatGPT recherche également sur l'internet des informations sur les personnes, lorsqu'on lui demande qui elles sont. Pour Arve Hjalmar Holmen, cela signifie heureusement que ChatGPT a cessé de dire qu'il était un meurtrier.

    Toutefois, les données incorrectes peuvent encore faire partie de l'ensemble de données du LLM. Par défaut, ChatGPT réintègre les données des utilisateurs dans le système à des fins de formation. Cela signifie qu'il n'y a aucun moyen pour l'individu d'être absolument sûr que cette sortie peut être complètement effacée selon l'état actuel des connaissances sur l'IA, à moins que l'ensemble du modèle d'IA ne soit réentraîné.

    Par ailleurs, OpenAI ne respecte pas non plus le droit d'accès prévu à l'article 15 du RGPD, ce qui empêche les utilisateurs de s'assurer de ce qu'ils traitent dans leurs systèmes internes. Cet état de fait continue, à juste titre, de susciter la détresse et la peur chez le plaignant.
  • Plainte déposée en Norvège. Noyb a donc déposé une plainte auprès du Datatilsynet norvégien. En permettant sciemment à son modèle d'IA de créer des résultats diffamatoires sur les utilisateurs, OpenAI viole le principe d'exactitude des données en vertu de l'article 5, paragraphe 1, point d), du RGPD. Noyb demande au Datatilsynet d'ordonner à OpenAI de supprimer les résultats diffamatoires et d'affiner son modèle afin d'éliminer les résultats inexacts. Enfin, Noyb suggère que l'autorité de protection des données impose une amende administrative afin d'éviter que des violations similaires ne se reproduisent à l'avenir.



Les hallucinations de l'IA font débats

Fait intéressant, ce n'est pas la première fois que les erreurs et les hallucinations de l'IA font polémique. L'hallucination est largement reconnue comme un inconvénient important pour les grands modèles de langage (LLM). De nombreux travaux ont tenté de réduire l'ampleur de l'hallucination. Cependant, jusqu'à présent, ces efforts ont surtout été empiriques, ce qui ne permet pas de répondre à la question fondamentale de savoir s'il est possible d'éliminer complètement l'hallucination.

Une étude avait alors conclu que l'hallucination de l'intelligence artificielle était inévitable. Ce serait une limitation innée des grands modèles de langage (LLM) qui sous-tendent l'IA. Pour obtenir cette conclusion, les chercheurs ont défini un monde formel dans lequel l'hallucination est définie comme des incohérences entre un LLM calculable et une fonction de vérité de base calculable. En utilisant des résultats de la théorie de l'apprentissage, ils ont montré que les LLM ne peuvent pas apprendre toutes les fonctions calculables et qu'ils auront donc toujours des hallucinations.

Pourtant, une autre étude s'oppose à l'idée que lorsque ChatGPT et les LLM produisent de fausses affirmations, on les qualifie d'hallucinations. Selon les auteurs, il est plus juste de qualifier les imprécisions des chatbots d' "âneries" que d'hallucinations. Selon l'étude, ces faussetés et l'activité globale des grands modèles de langage sont mieux comprises comme des âneries dans le sens où les modèles sont d'une manière importante indifférents à la vérité de leurs sorties. Ainsi, décrire les fausses déclarations de l'IA comme des âneries est à la fois une manière plus utile et plus précise de prédire et de discuter du comportement de ces systèmes.

À propos de Noyb

Noyb est une ONG financée par des dons et basée à Vienne, en Autriche, qui travaille à l'application des lois sur la protection des données, en particulier le RGPD et la directive ePrivacy. Actuellement, une équipe de plus de 20 experts juridiques et informatiques de toute l'Europe travaille à garantir que le droit fondamental à la vie privée est respecté par le secteur privé. Plus de 5 000 membres soutiennent notre travail.

Source : Noyb

Et vous ?

Pensez-vous que cette plainte est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

ChatGPT fournit de fausses informations sur les personnes, et OpenAI admet qu'elle n'est pas en mesure de les corriger. Elle ne peut pas dire d'où viennent les données, ni quelles sont les données stockées

La diffamation par l'IA : les hallucinations de ChatGPT peuvent-elles avoir des conséquences dramatiques ? Les géants de l'IA prévoiraient probablement d'esquiver les plaintes

Les LLM IA auront toujours des hallucinations, et nous devons nous en accommoder, car les hallucinations découlent de la structure mathématique et logique fondamentale des LLM, selon une étude
Vous avez lu gratuitement 2 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !