IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les régulateurs européens de la vie privée surveillent de près la suspension de ChatGPT en Italie. Plusieurs envisageraient de lui emboîter le pas
évoquant des problèmes de confidentialité

Le , par Stéphane le calme

5PARTAGES

12  0 
La décision de l'Italie de suspendre temporairement ChatGPT a incité d'autres pays européens à étudier si des mesures plus sévères sont nécessaires pour freiner les chatbots extrêmement populaires et s'il faut coordonner de telles actions. Le commissaire fédéral allemand à la protection des données et à la liberté d'information, Ulrich Kelber, a déclaré que le pays pourrait, en théorie, également suspendre temporairement ChatGPT s'il décidait de déterminer si la technologie violait le règlement général sur la protection des données (RGPD) de l'Union européenne.

Lancée l'année dernière en novembre par OpenAI, ChatGPT serait devenue l'application Internet à la croissance la plus rapide de l'histoire en attirant 100 millions d'utilisateurs actifs par mois en seulement deux mois.

Le bot non intelligent (est-il besoin de le rappeler ?) peut recevoir des instructions et des invites des utilisateurs et les utiliser pour produire des blocs correspondants de prose, de code et d'autres sorties de texte. Cependant, il est loin d'être parfait et peut produire un texte offensant, perpétrer des préjugés, tout simplement se tromper et diffuser des informations erronées (comme à peu près tous les grands modèles de langage).

Le Garante per la protezione dei dati personali (en français Garant de la protection des données personnelles que nous allons abréger GPDP) a bloqué le site Web d'OpenAI hébergeant le modèle la semaine dernière. Les autorités cherchent à savoir si le logiciel collecte illégalement des données sur les citoyens et si la technologie pourrait nuire aux mineurs de moins de 13 ans. L'Italie est ainsi devenue le premier pays à réglementer ChatGPT, et d'autres pays de l'UE pourraient lui emboîter le pas.

L'organisme de surveillance a déclaré que le 20 mars, l'application avait subi une violation de données impliquant des conversations d'utilisateurs et des informations de paiement. Il a déclaré qu'il n'y avait aucune base légale pour justifier « la collecte et le stockage massifs de données personnelles dans le but de 'former' les algorithmes sous-jacents au fonctionnement de la plateforme ». Il a également déclaré que puisqu'il n'y avait aucun moyen de vérifier l'âge des utilisateurs, l'application « expose les mineurs à des réponses absolument inadaptées par rapport à leur degré de développement et de sensibilisation ».

OpenAI, indique le GPDP, a désormais 20 jours pour répondre à ses préoccupations, sous peine d'une amende de 20 millions d'euros, soit jusqu'à 4% des revenus annuels.

Le blocage de ChatGPT en Italie intervient quelques jours après que l'agence de police européenne Europol a averti que les criminels étaient sur le point d'utiliser l'application pour commettre des fraudes et d'autres cybercrimes, du phishing aux logiciels malveillants.

La décision n'a pas fait l'unanimité en Italie. Par exemple, Matteo Salvini, qui est le chef du parti de la Ligue (la coalition au pouvoir) a déclaré : « Je trouve disproportionnée la décision de la Commission de surveillance de la vie privée qui a forcé #ChatGPT à empêcher l'accès depuis l'Italie ». Salvini, qui est également ministre des Transports, a déclaré que la décision du régulateur était « hypocrite » et qu'il fallait faire preuve de bon sens, car « les questions de confidentialité concernent pratiquement tous les services en ligne ».

OpenAI, qui a désactivé ChatGPT pour les utilisateurs italiens à la suite de la demande de l'agence, a déclaré vendredi qu'elle travaillait activement à la réduction de l'utilisation des données personnelles dans la formation de ses systèmes d'IA comme ChatGPT. « Nous sommes impatients de travailler en étroite collaboration avec (l'agence italienne des données) et de l'informer sur la manière dont nos systèmes sont construits et utilisés », a déclaré l'entreprise.

L'interdiction pourrait nuire aux entreprises nationales et à l'innovation, a déclaré Salvini, ajoutant qu'il espérait qu'une solution rapide serait trouvée et que l'accès du chatbot à l'Italie serait rétabli. « Chaque révolution technologique apporte de grands changements, des risques et des opportunités. Il est juste de contrôler et de réglementer par le biais d'une coopération internationale entre les régulateurs et les législateurs, mais on ne peut pas la bloquer », a-t-il déclaré.

Sur son site, le GPDP a indiqué qu'une réunion est prévue en vidéoconférence avec OpenAI demain 5 avril, OpenAI n'ayant pas de bureaux sur le territoire :

Un appel vidéo est prévu demain soir entre des représentants d'OpenAI et la SA italienne (Garante per la protezione dei dati personali), qui a ordonné il y a quelques jours à la plateforme de limiter temporairement le traitement des données des utilisateurs italiens jusqu'à ce qu'elle se conforme à [l'italien et Législation européenne sur la protection de la vie privée.

L'initiative d'appel vidéo, que la SA italienne salue, fait suite à la lettre de réponse envoyée hier par la société américaine pour signaler sa volonté de collaborer rapidement avec l'autorité italienne afin de se conformer aux réglementations européennes en matière de confidentialité et de parvenir à une solution partagée qui peut surmonter les critiques que la SA italienne a signalées concernant le traitement des données des utilisateurs italiens.

L'Allemagne, la France et l'Irlande surveillent de près l'enquête italienne

Alors que les parlementaires européens ne sont pas d'accord sur le contenu et la portée de la loi sur l'IA de l'UE, certains régulateurs constatent que les outils existants, tels que le règlement général sur la protection des données (RGPD) qui donne aux utilisateurs le contrôle de leurs informations personnelles, peuvent s'appliquer à la catégorie en plein essor des entreprises d'IA générative.

L'agence italienne a accusé OpenAI, soutenu par Microsoft Corp, de ne pas avoir vérifié l'âge des utilisateurs de ChatGPT ainsi que « l'absence de toute base légale justifiant la collecte et le stockage massifs de données personnelles » pour « former » le chatbot. « Les points qu'ils soulèvent sont fondamentaux et montrent que le RGPD offre des outils permettant aux régulateurs de s'impliquer et de s'engager à façonner l'avenir de l'IA », a déclaré Dessislava Savova, associée du cabinet d'avocats Clifford Chance.

Les régulateurs de la vie privée en France et en Irlande ont contacté leurs homologues en Italie pour en savoir plus sur le fondement de la suspension. L'Allemagne pourrait suivre les traces de l'Italie en bloquant ChatGPT pour des raisons de sécurité des données, a déclaré le commissaire allemand à la protection des données au journal Handelsblatt.

« Nous suivons le régulateur italien », a déclaré un porte-parole du commissaire irlandais à la protection des données. « Nous nous coordonnerons avec toutes les autorités de protection des données de l'UE en ce qui concerne cette question ».

Les régulateurs espagnols ont déclaré qu'ils n'avaient pas reçu de plainte officielle concernant ChatGPT et qu'ils pourraient lancer leur propre enquête à l'avenir si nécessaire. La Suède, cependant, n'aurait pas l'intention d'interdire le logiciel et n'a pas contacté le GDPD italien pour obtenir des conseils.

Certains experts juridiques pensent qu'une répression de ChatGPT pourrait signifier que d'autres chatbots IA comme Bard de Google ou Bing de Microsoft (qui s'appuie sur le même moteur que ChatGPT) pourraient également être examinés et réglementés.

« Contrairement à ChatGPT, Google est plus susceptible d'avoir déjà pris en compte [la confidentialité] en raison de son histoire en Europe et de la taille de l'organisation », a déclaré Dessislava Savova.

On ne sait pas comment des modèles comme ChatGPT seront touchés par la prochaine loi sur l'IA de l'UE (la législation conçue pour réglementer le développement et le déploiement de l'IA dans les États membres est toujours en débat).

Le projet de loi est retardé alors que les responsables négocient ses politiques finales, dans l'espoir de trouver un équilibre entre la réglementation des risques de confidentialité et de sécurité tout en soutenant le développement technique et le potentiel économique de l'IA.

« Il ne suffit pas de suspendre le développement de l'IA. Nous devons tout arrêter »

Tandis que ce débat a lieu sur la scène européenne, dans un premier temps en Italie, plus de 1 100 experts en intelligence artificielle, chefs d'entreprise et chercheurs ont signé une pétition appelant les développeurs d'IA à cesser de former des modèles plus puissants que le ChatGPT-4 d'OpenAI pendant au moins six mois.

Parmi ceux qui se sont abstenus de signer la pétition figure Eliezer Yudkowsky, théoricien américain de la décision et chercheur principal à la Machine Intelligence Research Institute. Il travaille sur l'alignement de l'intelligence artificielle générale depuis 2001 et est largement considéré comme l'un des fondateurs de ce domaine.

« Ce moratoire de six mois serait préférable à l'absence de moratoire », écrit Yudkowsky dans une tribune publiée dans Time Magazine. « Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre ».

Yudkowsky pousse la rhétorique à son paroxysme, en écrivant : « Si quelqu'un construit une centrale électrique trop puissante, il n'y a pas de raison de l'arrêter : "Si quelqu'un construit une IA trop puissante, dans les conditions actuelles, je m'attends à ce que chaque membre de l'espèce humaine et toute vie biologique sur Terre meurent peu de temps après ».

Voici un extrait de sa tribune :

Citation Envoyé par Eliezer Yudkowsky,
La question essentielle n'est pas celle de l'intelligence "compétitive avec l'homme" (comme le dit la lettre ouverte) ; il s'agit de savoir ce qui se passe une fois que l'IA a atteint une intelligence supérieure à celle de l'homme. Les seuils clés ne sont peut-être pas évidents, nous ne pouvons certainement pas calculer à l'avance ce qui se passera à ce moment-là, et il semble actuellement imaginable qu'un laboratoire de recherche franchisse les limites critiques sans s'en apercevoir. [...] Ce n'est pas que vous ne puissiez pas, en principe, survivre à la création d'un objet beaucoup plus intelligent que vous ; c'est que cela nécessiterait de la précision, de la préparation et de nouvelles connaissances scientifiques, et probablement pas des systèmes d'IA composés de gigantesques tableaux impénétrables de nombres fractionnaires. [...]

Il s'est écoulé plus de 60 ans entre le moment où la notion d'intelligence artificielle a été proposée et étudiée pour la première fois et le moment où nous avons atteint les capacités d'aujourd'hui. Résoudre la sécurité d'une intelligence surhumaine - pas une sécurité parfaite, une sécurité dans le sens de "ne pas tuer littéralement tout le monde" - pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le problème avec l'intelligence surhumaine, c'est que si l'on se trompe du premier coup, on ne peut pas apprendre de ses erreurs, car on est mort. L'humanité n'apprend pas de ses erreurs, ne se dépoussière pas et ne recommence pas, comme dans d'autres défis que nous avons relevés au cours de notre histoire, parce que nous sommes tous morts.

Essayer de réussir quelque chose du premier coup est une tâche extraordinaire, que ce soit en science ou en ingénierie. Nous n'avons pas l'approche nécessaire pour y parvenir. Si nous appliquions au domaine naissant de l'intelligence artificielle générale les mêmes normes de rigueur technique que celles qui s'appliquent à un pont destiné à accueillir quelques milliers de voitures, l'ensemble du domaine serait fermé demain. Nous ne sommes pas prêts. Nous ne sommes pas en mesure de nous préparer dans un délai raisonnable. Il n'y a pas de plan. Les progrès en matière de capacités d'IA sont très, très en avance sur les progrès en matière d'alignement de l'IA ou même sur les progrès en matière de compréhension de ce qui se passe à l'intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir.
Source : CNIL italienne

Et vous ?

Que pensez-vous de la décision de la CNIL italienne ?
Les autres pays européens gagneraient-ils à suivre son exemple ? Pourquoi ?
Comprenez-vous la motivation des experts en intelligence artificielle, chefs d'entreprise et chercheurs qui ont signé une pétition appelant les développeurs d'IA à cesser de former des modèles plus puissants que le ChatGPT-4 d'OpenAI pendant au moins six mois ? La partagez-vous ? Dans quelle mesure ?

Voir aussi :

Un YouTubeur incite ChatGPT à générer des clés d'activation Windows 95 utilisables. ChatGPT « ne peut pas compter la somme des chiffres et ne connaît pas la divisibilité », regrette le YouTubeur
Alors que l'Amérique est focalisée sur ChatGPT, elle perd la course avec la Chine sur la technologie dans 37 des 44 domaines clés, selon une étude financée par le Département d'État US

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/04/2023 à 9:55
"Hey chatGPT, voilà toutes les donneés confidentielles économiques de mon entreprises, fait moi le rapport financier stp, j'ai la flème".
8  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 11/04/2023 à 16:19
Citation Envoyé par HaryRoseAndMac Voir le message
Une mentalité d'extrême gauche qui préfère favoriser des envahisseurs et tout ceux qui ne sont pas Français, plutôt que leur propre famille, parce que dans un cycle d'autodestruction, presque sadique.
La France a une réelle capacité à générer des génies, de part la langue Française qui force le raisonnement et par la qualité de ses grandes écoles.
Hahaha, ton obsession pour l'extrême gauche et de lui refiler tous les maux de la France me font rire. Je veux bien comprendre qu'une partie de leurs représentants ne sont pas beaucoup plus malin qu'un mollusque mais je crois que la France est bien loin d'avoir un communisme si fort en son sein.
Quant à nos grandes écoles, de ceux que j'en ai vu sortir, elles sont justement la source la plus intarrissable de personnes " hautaine, sûr de soit, prête à mettre des dislike à tout vas sans essayer de comprendre réellement les propos et se remettre en question".
Chez nous on a un adjectif pour ces gens là : les "parisiens". Ils sont faciles à reconnaitre : ils arrivent à un poste à responsabilité, ils remettent tout en question dans leur environnement et expliquent aux autres comment bien faire leur travail (sans le connaitre). On les traite d'une façon simple : On les ignore, quand leur chef en a ras le cul d'eux, il l'envoi dans un placard, ce qui mène à une démission en général.
Et je ne dit pas qu'on ne se remet pas en cause, la plupart des managers qui arrivent en poste, pose des questions, observent puis suggèrent les améliorations qui sont suivies parce que raisonnables et expliquées.
Citation Envoyé par HaryRoseAndMac Voir le message
Cette boite viens me voir en disant qu'ils ont d'abord fait développer leur logiciel de A à Z par ... ChatGPT ! [...]
Puis, ... ils ont donnés les audit à des développeurs qu'ils ont pris à la sortie d'o'clock, alors qu'on sais tous que c'est le pire du bas de gamme et de l'incompétence possible que de piocher là dedans.
Je penses que ces scénarios vont se multiplier et je vais être honnete, je ne vais pas pleurer ces entreprises. Le groupe dans lequel je travaille nous encourageait très largement à des méthodes qui me paraissaient suicidaires.
Ils sont repassé chez nous semaine dernière, j'étais bien rassuré des les voir nous encourager à éviter le piège de ChatGPT (qui était le mot préféré de nos "sachant du 4.0"), des ESN cheap et de l'Offshore indien.

Il y a de ça un an on a lancé un grand projet de developpement d'un gros outil, j'ai décidé de quitter le navire quand on a choisi CapGemini parce qu'ils ont fait plusieurs projets pour nous, peu sont arrivés à au bout, et ceux qui l'ont été n'ont jamais été utilisé parce qu'ils ne répondaient ni à notre besoin ni à notre cahier des charges, qu'ils avaient refondus partiellement sans notre accord.
Nous avons interrompu le projet il y a peu, jetant par les fenetres quelques k€ au passage.
Je ne suis pas plus intelligents que les autres, je me souviens juste qu'on a toujours été déçu par leurs perstations mais je suis aussi trop personne pour que les jour où j'ai levé le warning tout le monde décide de m'ignorer. A la fin tout ça ne touche pas à mon salaire et ne me fait plus perdre mon temps donc je laisse faire mais c'est décourageant.
5  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 07/04/2023 à 11:57
Citation Envoyé par Jon Shannow Voir le message
Personnellement, ayant une bonne dose d'intelligence naturelle, je ne vois pas l'intérêt de me coltiner une intelligence artificielle.
Mais, comme toute prothèse, je pense que pour ceux qui ont un déficit de ce coté, une béquille ou un déambulateur comme ChatGPT peut leur venir en aide.
Ce n'est pas tout-à-fait ça, l'enjeu.
Ce qu'ils veulent, c'est se passer de ton intelligence pour ne pas avoir à te payer un salaire.
4  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 07/04/2023 à 12:19
Citation Envoyé par archqt Voir le message
Il n'y a qu'une seule solution, devoir sur table individuel ou un oral individuel. A la maison chatGPT ou travail de groupe et cela triche de tous les côtés
Ce n'est pas nouveau

<MODE VIEUX CON>
De mon temps, les devoirs à la maison, ça a toujours été inégalitaire :
- les parents diplômés (ou pas) pouvaient aider (ou pas)
- on pouvait avoir une encyclopédie à la maison (ou pas)
- on pouvait avoir un grand frère ou soeur (ou pas) intelligent (ou pas) qui aide (ou pas)
- un(e) amoureux(se) dévoué(e) en mode "esclave" qui fait tes devoirs (ou pas)
</MODE VIEUX CON>

J'ai coché toutes les cases "ou pas" du coup j'ai du tout faire moi-même ce qui m'a permis d'être débrouillard et une fois au collège et au lycée bon élève

Aujourd'hui tout le monde a accès à Internet.
ChatGPT permet aux moches / pas populaires / sans famille de tricher aussi - on va dire que c'est plus juste mais dans le mauvais sens, l'égalité par le nivellement par le bas

Les vedettes du collège et du lycée qui étaient gâtés et qui frimaient pas mal, bah... ils ne friment plus aujourd'hui

Quoique certains si quand même, car il y a des métiers (que je ne citerais pas) ou c'est la tactch' qui compte
4  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 07/04/2023 à 13:43
Citation Envoyé par HaryRoseAndMac Voir le message
Et du temps de Vercingétorix c'était comment ?
La réponse est dans une chanson de France Gall

Charlemagne n'avait pas encore inventé l'école à cette époque
4  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 25/05/2023 à 19:49
Plus stupide on a vu, déjà.

Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.
4  0 
Avatar de eternelNoob
Futur Membre du Club https://www.developpez.com
Le 09/05/2023 à 9:16
Et plus tard, on parlera de bulle de l'IA alors que certains auront effectivement décollé

Toujours les mêmes histoires...
3  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 23/05/2023 à 9:18
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.
3  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 26/05/2023 à 10:32
Citation Envoyé par Hexdrix1111 Voir le message
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
1. Respecter les droits de l'homme et les libertés fondamentales.
2. Agir de manière éthique et responsable.
3. Être transparentes dans leurs actions et décisions.
4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
6. Respecter la vie privée des individus et protéger leurs données personnelles.
7. Être conçues pour être accessibles et compréhensibles par tous.
8. Être utilisées de manière juste et non discriminatoire.
9. Contribuer au bien-être de la société en général.
10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
C'est un bon paquet de voeux pieux, mais ça sonne bien.

à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...
4  1 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 08/05/2023 à 17:30
Citation Envoyé par HaryRoseAndMac Voir le message
Et du temps de Vercingétorix c'était comment ?
Ils pratiquaient l'immigration choisie et voulue. Et la capacité d'intégration était un critère majeur. Tous les pays qui ont abandonné ce modèle sont en déclin ou carrément en crise. Alors que les pays asiatiques ont des politiques d'immigration qui tournent autour de zéro contrôlent les secteurs de pointes.
2  0