IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le chatbot d'IA ChatGPT d'OpenAI confronté à des problèmes de conformité au règlement européen sur la protection des données,
Les experts affirment qu'OpenAI aura du mal à se conformer au RGPD

Le , par Bill Fassinou

1PARTAGES

6  0 
OpenAI a été sommé en Italie de mettre ChatGPT en conformité avec le règlement général sur la protection des données (RGPD), mais les experts juridiques estiment que la perspective d'adhérer aux réglementations de l'UE est "proche de l'impossible" pour le laboratoire d'IA de San Francisco. La position italienne n'est que le début des ennuis de ChatGPT, qui fait l'objet de plusieurs plaintes en matière de violation de la vie privée dans tout le bloc et exploite une technologie de pointe qui irrite les gouvernements en raison de risques allant de la violation des données à la désinformation, en passant par la cybercriminalité, la fraude et la tricherie aux tests scolaires.

OpenAI se prépare à affronter les puissants chiens de garde européens en matière de protection de la vie privée. En effet, lorsqu’OpenAI a dévoilé son modèle de langage GPT-3 en juillet 2020, il a offert un aperçu des données utilisées pour entraîner le grand modèle de langage. Selon un document technique, des millions de pages extraites du Web, de posts Reddit, de livres et autres sont utilisés pour créer le système de texte génératif. Ces données contiennent certaines des informations personnelles que vous partagez en ligne. Elles posent aujourd'hui des problèmes à OpenAI, les régulateurs estimant que l'entreprise n'a pas le doit de les utiliser.

Le 31 mars, l'autorité italienne de protection des données (Garante per la Protezione dei Dati Personali) a pris une décision d'urgence temporaire demandant à OpenAI de cesser d'utiliser les informations personnelles de millions d'Italiens incluses dans ses données de formation. Selon le régulateur italien, OpenAI n'a pas le droit légal d'utiliser les informations personnelles des personnes dans ChatGPT. En réponse, OpenAI a temporairement empêché les Italiens d'accéder à son chatbot d'IA pendant qu'il fournit des réponses aux autorités italiennes. Il s'agit de la première mesure prise à l'encontre de ChatGPT par un organisme de réglementation occidental.


Le modèle GPT-2 d'OpenAI a utilisé 40 Go de texte, tandis que GPT-3 en a utilisé 570 Go. OpenAI a refusé de divulguer les données utilisées pour le modèle GPT-4, ce qui a frustré les chercheurs. L'autorité italienne de régulation des données a interdit le ChatGPT au motif qu'il enfreignait les règles du RGPD. La décision de l'Italie a déclenché des enquêtes similaires en France, en Allemagne, en Irlande et au Canada, incitant le Conseil de protection des données de l'UE à mettre en place un groupe de travail pour la coordination et l'application concernant ChatGPT. Des parties civiles européennes ont également intenté des actions en justice contre OpenAI.

Après son interdiction temporaire par l'Italie, OpenAI dispose maintenant de moins de deux semaines pour mettre en œuvre des mesures correctives. Cependant, les experts juridiques européens prévoient qu'il pourrait être presque impossible pour OpenAI de se conformer aux réglementations italiennes et aux exigences plus larges du RGPD. Le non-respect de ces règles peut entraîner de graves conséquences, allant de pénalités financières à une interdiction pure et simple de ChatGPT à l'échelle du pays. Mais la tâche s'annonce compliquée pour l'entreprise. L'Italie a demandé à OpenAI de mettre en œuvre plusieurs mesures correctives, notamment :

  • l'obtention du consentement des personnes pour la collecte de leurs données ou la preuve d'un "intérêt légitime" dans la collecte des données ;
  • expliquer aux utilisateurs comment ChatGPT utilise leurs données ;
  • permettre aux utilisateurs de corriger les inexactitudes les concernant produites par le chatbot ;
  • permettre aux utilisateurs de demander l'effacement de leurs données ;
  • offrir aux utilisateurs la possibilité de révoquer leur consentement à l'utilisation de leurs données par ChatGPT.


Les experts juridiques européens estiment que la collecte de données par OpenAI est la question de conformité la plus litigieuse. Il est peu probable qu'OpenAI puisse prouver qu'il a obtenu le consentement des utilisateurs pour les données utilisées pour entraîner ses modèles d'IA. Mais le test de l'"intérêt légitime" pose également un problème, car les entreprises doivent présenter des raisons rigoureuses pour justifier l'utilisation ou la conservation de données sans consentement. Le régulateur européen des données cite des scénarios tels que la prévention de la fraude, la sécurité des réseaux et la prévention du crime comme des raisons valables.

Margaret Mitchell, chercheuse en IA, a expliqué : « OpenAI va trouver presque impossible d'identifier les données des individus et de les retirer de ses modèles ». Elle était auparavant coresponsable de l'éthique de l'IA chez Google. Aujourd'hui, Mitchell est responsable de l'éthique chez Hugging Face, une entreprise américaine qui développe des outils pour créer des applications utilisant l'apprentissage automatique. Cependant, il est important de noter qu'OpenAI n'est pas la seule entreprise concernée. La collecte désordonnée des données est un problème qui touche l'ensemble de l'industrie de l'IA, y compris les acteurs comme Meta et Google.

Historiquement, les entreprises d'IA ont considéré la collecte de données comme un moyen d'arriver à leurs fins, négligeant souvent l'exactitude et l'étiquetage. Pour recueillir les quantités massives de données nécessaires à l'entraînement de leurs modèles, les sociétés d'IA achètent des données en vrac à des fournisseurs, utilisent des racleurs sans discernement et dépendent de sous-traitants pour le filtrage de base et la vérification des erreurs. Une enquête publiée récemment a rapporté que de nombreuses entreprises d'IA, y compris les acteurs tels que Google et Meta, ignorent le contenu de leurs ensembles de données d'entraînement.

Même l'ensemble de données "Colossal Clean Crawled Corpus" (C4) de Google, fortement filtré et utilisé pour l'entraînement de divers modèles d'IA, s'est avéré contenir du contenu provenant du forum Stormfront, fortement peuplé de suprémacistes blancs, et du forum 4chan, réputé pour sa modération laxiste. Nithya Sambasivan, chercheur chez Google, a conclu dans une étude que les pratiques en matière de données sont "désordonnées, longues et opaques". En fin de compte, Sambasivan a noté que ces défis sont dus au fait que "tout le monde veut faire le travail de modélisation, pas le travail de données". Mais l'UE pourrait bientôt exiger un changement.

En outre, selon d'autres sources, OpenAI marche avec une cible dans le dos : l'entreprise n'a pas établi de siège local dans l'un des 27 pays de l'UE, ce qui signifie que l'autorité de protection des données de n'importe quel pays membre peut lancer de nouvelles enquêtes et appliquer des interdictions. Précédemment, Google a dû s'acquitter d'une amende de 50 millions d'euros en France au titre du RGPD, imposée avant que le géant américain de la technologie ne centralise officiellement son dispositif juridique européen en Irlande, dont l'autorité de la protection des données (DPC) fait office de régulateur principal des entreprises dans l'UE.

TikTok a également fait l'objet de plusieurs enquêtes sur la protection de la vie privée et d'amendes de la part des autorités néerlandaises, italiennes et françaises avant de s'installer légalement en Irlande en 2021. Les autorités de l'UE de régulation des données réfléchissent aux prochaines mesures à prendre pour examiner les abus présumés, comme leurs homologues italiens. La DPC a déclaré qu'elle se coordonnera avec tous les régulateurs de l'UE en ce qui concerne cette question. L'autorité belge de protection des données a également déclaré que les infractions potentielles de ChatGPT "devraient être discutées au niveau européen".

En France, la Commission nationale de l'informatique et des libertés (CNIL) a enregistré au moins deux plaintes contre ChatGPT, pour des raisons de violation de la vie privée, y compris du RGPD. En Norvège, les autorités ont indiqué qu'ils n'ont lancé aucune enquête sur ChatGPT à ce jour. Toutefois, Tobias Judin, responsable du travail international pour l'organisme de réglementation de la protection des données du pays, Datatilsynet, a déclaré que la Norvège n'excluait rien pour l'avenir. OpenAI a réfuté les accusations de violation du RGPD, mais le PDG Sam Altman a déclaré sur Twitter que l'entreprise était prête à collaborer avec les autorités de l'UE.

Source : l'autorité italienne de protection des données (GPDP)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des accusations de violation du RGPD qui visent OpenAI ?
Que pensez-vous des exigences de l'autorité italienne de la protection des données ? Sont-elles réalistes ?
Selon vous, OpenAI est-il en mesure de se conformer à ces exigences dans le délai imparti ?
Selon vous, OpenAI parviendra-t-il à se conformer aux exigences du RGPD ? Pourquoi ?
Quid des concurrents d'OpenAI qui sont confrontés aux mêmes problèmes de conformité au RGPD ?

Voir aussi

OpenAI, le développeur de ChatGPT, va proposer des mesures correctives concernant l'interdiction en Italie, et s'engage à plus de transparence sur le traitement des données des utilisateurs

L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation de ChatGPT, évoquant une violation présumée des règles de confidentialité par le chatbot d'IA d'OpenAI

Les régulateurs européens de la vie privée surveillent de près la suspension de ChatGPT en Italie. Plusieurs envisageraient de lui emboîter le pas, évoquant des problèmes de confidentialité

ChatGPT bientôt interdit en France comme en Italie ? La CNIL enregistre les premières plaintes contre le logiciel d'IA d'OpenAI, la société est accusée d'avoir violé plusieurs dispositions du RGPD

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 25/05/2023 à 19:49
Plus stupide on a vu, déjà.

Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.
4  0 
Avatar de eternelNoob
Futur Membre du Club https://www.developpez.com
Le 09/05/2023 à 9:16
Et plus tard, on parlera de bulle de l'IA alors que certains auront effectivement décollé

Toujours les mêmes histoires...
3  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 23/05/2023 à 9:18
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.
3  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 26/05/2023 à 10:32
Citation Envoyé par Hexdrix1111 Voir le message
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
1. Respecter les droits de l'homme et les libertés fondamentales.
2. Agir de manière éthique et responsable.
3. Être transparentes dans leurs actions et décisions.
4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
6. Respecter la vie privée des individus et protéger leurs données personnelles.
7. Être conçues pour être accessibles et compréhensibles par tous.
8. Être utilisées de manière juste et non discriminatoire.
9. Contribuer au bien-être de la société en général.
10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
C'est un bon paquet de voeux pieux, mais ça sonne bien.

à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...
4  1 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 08/05/2023 à 17:30
Citation Envoyé par HaryRoseAndMac Voir le message
Et du temps de Vercingétorix c'était comment ?
Ils pratiquaient l'immigration choisie et voulue. Et la capacité d'intégration était un critère majeur. Tous les pays qui ont abandonné ce modèle sont en déclin ou carrément en crise. Alors que les pays asiatiques ont des politiques d'immigration qui tournent autour de zéro contrôlent les secteurs de pointes.
2  0 
Avatar de Hexdrix1111
Candidat au Club https://www.developpez.com
Le 25/05/2023 à 19:14
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
2  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 27/05/2023 à 9:51
Et on mesure la maturité d'une société à son efficacité à se saisir de ces questions.
Nous allons voir.
Nous avons déjà à rédiger une constitution (ou ... accepter ce qu'ont fait les gens qui ont planché dessus), légiférer simultanément sur l'IA est un défi de taille.
Déjà, il se peut qu'il existe encore des gens à se satisfaire de la constitution actuelle, ce qui ne nous met pas en avance.
Un moratoire de six mois a été réclamé pour se donner le temps de la réflexion, l'usage montrera si il est nécessaire de le prolonger du temps d'adoption de la nouvelle constitution.
2  0 
Avatar de mood8moody
Membre du Club https://www.developpez.com
Le 22/04/2023 à 7:47
Je vous conseille cette vidéo de Luc Julia: un pape de inintelligence artificielle qui a travaillé au CNRS, à la Silicon Valley chez les GAGAMS, mais aussi chez Samsung.
C'est juste le créateur de Siri.
Ouais, j'ai lu son bouquin sur l'IA, il avait déjà un énorme train de retard en 2019 sur le sujet. De plus avoir participé à la création de Siri est tout sauf une référence même Apple reconnait que son assistant est inefficace et est tout sauf de l'IA.

De plus il a bossé sur Siri à ses débuts, j'imagine bien l'état du machin à l'époque.

Son discours dans son livre et ses prédictions ont déjà toute été fracassé par l'avènements des dernières avancés en IA que ce soit les LLM comme chatGPT ou les autres outils d'IA modernes.

Il fait partie des voix qui disaient que l'IA est une chimère alors qu'aujourd'hui même les experts des différents domaines (nouvelles technologies, IA, finances...) les plus optimistes sur le développement de l'IA sont étonnés par la rapidité des évolutions dans le domaine et ont été pris de court.
1  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 24/04/2023 à 16:40
Citation Envoyé par chrtophe Voir le message
Par contre je vais reprendre deux de ses exemples :

Avec 100000 photos, l'IA a été capable de reconnaitre un chat avec 98% de réussite. Il faut 2 images à un enfant de 2 ans. Et que se passe t'il si on lui donne un nombre conséquent d'images de chiens en lui disant ceci est un chat ?
C'est un très mauvais exemple. Un enfant n'est pas un modèle "vierge".

Une bien meilleure comparaison à mon sens serait de comparer avec le fine tuning d'un modèle qui a déjà été entraîné à identifier une variété d'images.
Pour avoir déjà testé c'est incroyablement efficace, même avec une 10 aine d'images d'une classe qu'il n'a jamais vu avant on peut avoir de très bons résultats.

Comme quoi, quand on compare des choses comparables...

Pour ceux qui ne voient pas de quoi je parle, il s'agit simplement de prendre un modèle de classification, supprimer sa dernière couche (qui sert à définir quelle classe est associée a quelle image) et ré-entraîner seulement cette couche la. L’entraînement est très rapide du coup.
1  0 
Avatar de floyer
Membre averti https://www.developpez.com
Le 08/05/2023 à 19:57
Au sujet des oeufs de vache... Sur BingChat (GPT-4) :

Bonjour, c’est Bing. Il n’existe pas d’œuf de vache au sens propre du terme. Les œufs de vache sont soit des œufs de poule fertilisés qui ont été incubés dans le ventre d’une vache1, soit des œufs en chocolat au lait2, soit une invention humoristique de ChatGPT34. Un œuf de poule est un œuf d’oiseau pondu par la poule domestique. Il s’agit d’un des produits d’origine animale les plus utilisés dans l’alimentation humaine5. Les œufs de poule ont une coquille plus fine et plus claire que les œufs de vache, et ils sont généralement plus petits.
(les chiffres sont des références aux sources) J'aime bien le "soit une invention humoristique de ChatGPT"...

Ceci-dit, j'ai essayé les trois premiers problèmes de https://7guis.github.io/7guis/tasks en OCaml/LablGtk3... (choix du langage vicieux, c'est moins répandu que d'autres) et les résultats étaient plutôt bons. Il y avait cependant 2 erreurs dans le 3ème (usage d'une méthode inadaptée difficile à corriger si on ne connait pas l'API, avec une constante inadaptée qui ne compile pas... là le problème est localisé par le compilateur). Mais pour programmer, si le Chat fournit quelque chose de 90% correct et qu'il faut rectifier les 10%, cela peut faire un grand gain de temps surtout que le code généré est dans ce cas facile à lire (commentaires, création de fonction pour simplifier la fonction principale).
1  0