IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft et OpenAI poursuivis pour avoir collectés et divulgués des informations personnelles avec ChatGPT sans consentement
Les plaignants leur réclament 3 milliards de dollars

Le , par Stéphane le calme

6PARTAGES

7  0 
Microsoft et OpenAI ont été poursuivis mercredi par seize individus anonymes qui affirment que les produits d’intelligence artificielle des entreprises basés sur ChatGPT ont collecté et divulgué leurs informations personnelles sans notification ni consentement adéquats.

La plainte, déposée devant un tribunal fédéral à San Francisco, en Californie, allègue que les deux entreprises ont ignoré les moyens légaux d’obtenir des données pour leurs modèles d’IA et ont choisi de les collecter sans les payer. « Malgré les protocoles établis pour l’achat et l’utilisation des informations personnelles, les défendeurs ont adopté une approche différente : le vol », dit la plainte. « Ils ont systématiquement extrait 300 milliards de mots d’Internet, ‘livres, articles, sites web et publications - y compris des informations personnelles obtenues sans consentement’. OpenAI l’a fait en secret, et sans s’enregistrer comme courtier en données comme il était tenu de le faire en vertu de la loi applicable. »

Par le biais de leurs produits d’IA, affirme-t-elle, les deux entreprises « collectent, stockent, suivent, partagent et divulguent » les informations personnelles de millions de personnes, y compris les détails des produits, les informations sur les comptes, les noms, les coordonnées, les identifiants de connexion, les courriels, les informations de paiement, les relevés de transactions, les données du navigateur, les médias sociaux, les journaux de discussion, les données d’utilisation, les analyses, les cookies, les recherches et autres activités en ligne.

Microsoft et OpenAI accusés d'avoir intégré des informations personnelles de millions de personnes dans leurs produits

La plainte soutient que Microsoft et OpenAI ont intégré dans leurs produits d’IA les informations personnelles de millions de personnes, reflétant des passe-temps, des croyances religieuses, des opinions politiques, des antécédents électoraux, l’appartenance à des groupes sociaux ou de soutien, des orientations sexuelles et des identités de genre, des historiques professionnels, des photos de famille, des amis et d’autres données découlant des interactions en ligne.

OpenAI a développé une famille de modèles génératifs de langage à grande échelle, qui comprend GPT-2, GPT-4 et ChatGPT ; Microsoft non seulement défend la technologie, mais l’a intégrée dans tous les coins de son empire, de Windows à Azure.

« En ce qui concerne les informations personnelles identifiables, les défendeurs ne parviennent pas à les filtrer suffisamment des modèles d’entraînement, mettant ainsi des millions de personnes en danger de voir ces informations divulguées sur demande ou autrement à des étrangers du monde entier », affirme la plainte, citant le rapport sur le sujet.

La plainte de 157 pages est lourde de citations médiatiques et académiques exprimant l’inquiétude au sujet des modèles d’IA et de l’éthique, mais légère sur les cas spécifiques de préjudice. Pour les 16 plaignants, la plainte indique qu’ils ont utilisé ChatGPT ainsi que d’autres services Internet comme Reddit et qu’ils s’attendaient à ce que leurs interactions numériques ne soient pas intégrées dans un modèle d’IA. Il reste à voir comment le contenu et les métadonnées créés par le plaignant ont été exploités et si ChatGPT ou d’autres modèles reproduiront ces données.

La plainte vise le statut de recours collectif

OpenAI a par le passé traité la reproduction d’informations personnelles en les filtrant. La plainte demande le statut de recours collectif et des dommages-intérêts de 3 milliards de dollars (bien que ce montant soit susceptible d’être réduit si l’affaire aboutit). Tout dommage réel serait déterminé si les demandeurs l'emportaient, sur la base des conclusions du tribunal.

La plainte allègue que Microsoft et OpenAI ont violé l'Electronic Privacy Communications Act américain en obtenant et en utilisant des informations privées, et en interceptant illégalement les communications entre les utilisateurs et les services tiers via des intégrations avec ChatGPT et des produits similaires.

La plainte soutient en outre que les accusés ont violé la loi sur la fraude et les abus informatiques en interceptant les données d'interaction grâce à des plugins.

Elle allègue également des violations d'autres lois, notamment les lois californiennes sur l'invasion de la vie privée (Invasion of Privacy Act) et la loi sur la concurrence déloyale, les lois de l'Illinois sur la confidentialité des informations biométriques (Biometric Information Privacy Act) et la loi sur la fraude à la consommation et les pratiques commerciales trompeuses, le droit des affaires de New York ainsi que de divers préjudices généraux (délits) comme la négligence et l'enrichissement sans cause.


La plainte

Ceci est un extrait de la plainte.

Le 19 octobre 2016, Stephen Hawking, professeur de physique théorique à l'Université de Cambridge, a prédit : « Le succès dans la création de l'IA pourrait être le plus grand événement de l'histoire de notre civilisation. Mais ce pourrait aussi être le dernier, à moins que nous n'apprenions à éviter les risques ». Le professeur Hawking a décrit un avenir dans lequel l'humanité choisirait soit d'exploiter les énormes avantages potentiels, soit de succomber aux dangers de l'IA, soulignant que « la montée en puissance d'une IA puissante sera soit la meilleure, soit la pire chose qui puisse arriver à l'humanité ».

L'avenir prédit par le professeur Hawking est arrivé en seulement sept petites années. En utilisant des informations personnelles volées et détournées à grande échelle, les défendeurs ont créé une IA puissante et extrêmement rentable et l'ont diffusée dans le monde sans se soucier des risques. Ce faisant, les défendeurs ont créé une course aux armements contre l'IA dans laquelle les défendeurs et d'autres grandes entreprises technologiques embarquent la société dans un avion qui, selon plus de la moitié des experts en IA interrogés, a au moins 10 % de chances de s'écraser et de tuer tout le monde à bord. L'humanité est maintenant confrontée aux deux routes givrées que le professeur Hawking a prédites et que nous devrions choisir entre : l'une qui mène à la durabilité, à la sécurité et à la prospérité et l'autre qui conduit à l'effondrement de la civilisation.

Les produits ciblés

Ce recours collectif découle de la conduite illégale et préjudiciable des défendeurs dans le développement, la commercialisation et l'exploitation de leurs produits d'IA, y compris ChatGPT-3.5, ChatGPT-4.0, Dall-E et Vall-E (les « Produits »), qui utilisent des informations privées, y compris des informations personnellement identifiables, de centaines de millions d'internautes, y compris des enfants de tous âges, sans leur consentement éclairé ou leur connaissance. En outre, les défendeurs continuent de collecter et de fournir illégalement des données personnelles supplémentaires de millions de consommateurs sans méfiance dans le monde, bien au-delà de toute utilisation raisonnablement autorisée, afin de continuer à développer et à former les produits.

Le mépris des défendeurs pour les lois sur la vie privée n'a d'égal que leur mépris pour le risque potentiellement catastrophique pour l'humanité. Emblématique à la fois du risque ultime - et du mépris ouvert des défendeurs - est cette déclaration du PDG du défendeur OpenAI, Sam Altman : « L'IA conduira probablement à la fin du monde, mais en attendant, il y aura de grandes entreprises ».

Les produits des défendeurs et la technologie sur laquelle ils sont construits ont sans aucun doute le potentiel de faire beaucoup de bien dans le monde, comme aider la recherche scientifique vitale et inaugurer des découvertes qui peuvent améliorer la vie des Américains ordinaires. Avec ce potentiel à l'esprit, la défenderesse OpenAI a été fondée à l'origine en tant qu'organisation de recherche à but non lucratif avec une seule mission : créer et garantir que l'intelligence artificielle serait utilisée au profit de l'humanité. Mais en 2019, OpenAI s'est brusquement restructurée, développant une entreprise à but lucratif qui poursuivrait des opportunités commerciales d'une ampleur stupéfiante.

Un changement dans la manière de procéder d'OpenAI dû à la modification de sa structure

À la suite de la restructuration, OpenAI a abandonné ses objectifs et principes d'origine, choisissant plutôt de rechercher le profit au détriment de la confidentialité, de la sécurité et de l'éthique. Il a doublé sa stratégie pour récolter secrètement d'énormes quantités de données personnelles sur Internet, y compris des informations privées et des conversations privées, des données médicales, des informations sur les enfants - essentiellement toutes les données échangées sur Internet qu'il pourrait prendre - sans en avertir les propriétaires ou les utilisateurs de ces données, encore moins avec la permission de qui que ce soit.

Sans ce vol sans précédent d'informations privées et protégées par le droit d'auteur appartenant à de vraies personnes, communiquées à des communautés uniques, à des fins spécifiques, ciblant des publics spécifiques, les Produits ne seraient pas l'entreprise de plusieurs milliards de dollars qu'ils sont aujourd'hui. OpenAI a utilisé les données volées pour former et développer les produits à l'aide de grands modèles de langage (LLM) et d'algorithmes de langage approfondis pour analyser et générer un langage de type humain pouvant être utilisé pour un large éventail d'applications, notamment les chatbots, la traduction linguistique, la génération de texte, et plus. Les capacités sophistiquées de traitement du langage naturel des produits des défendeurs leur permettent, entre autres, de mener des conversations humaines avec les utilisateurs, de répondre aux questions, de fournir des informations, de générer le texte suivant à la demande, de créer de l'art et de se connecter émotionnellement avec les gens, tout comme un « vrai » humain.

Une fois formés sur les données volées, les défendeurs ont vu le potentiel de profit immédiat et ont précipité les produits sur le marché sans mettre en œuvre de garanties ou de contrôles appropriés pour s'assurer qu'ils ne produiraient pas ou ne soutiendraient pas de contenu et de conduite nuisibles ou malveillants qui pourraient enfreindre davantage la loi, enfreindre les droits et mettre des vies en danger. Sans ces garanties, les Produits ont déjà démontré leur capacité à nuire aux humains, de manière réelle.

Les risques de l'IA pour l'humanité l'emportent sur ceux du développement d'armes nucléaires

Un nombre non négligeable d'experts affirment que les risques pour l'humanité présentés par les produits l'emportent même sur ceux du développement d'armes nucléaires par le projet Manhattan. Historiquement, la diffusion incontrôlée de nouvelles technologies sans garanties et réglementations appropriées a provoqué le chaos. Encore une fois, nous sommes confrontés à des risques imminents et déraisonnables de voir le tissu même de notre société s'effondrer, aux mains d'entreprises à but lucratif de plusieurs milliards de dollars.

Des entreprises puissantes, armées de capacités technologiques inégalées et hautement concentrées, se sont imprudemment précipitées pour publier la technologie de l'IA sans tenir compte du risque catastrophique pour l'humanité au nom du « progrès technologique ». Comme l’a noté la National Security Commission dans son rapport final sur l’IA, « le gouvernement américain est loin d’être "prêt pour l’IA" ».

Les experts estiment que sans intervention juridique immédiate, cela conduira à des scénarios où l'IA peut agir contre les intérêts et les valeurs humaines, exploiter les êtres humains sans tenir compte de leur bien-être ou de leur consentement, et/ou même décider d'éliminer l'espèce humaine comme une menace pour son but. Comme l'a dit Geoffrey Everest Hinton - la figure séminale du développement de la technologie sur laquelle les produits fonctionnent - : « La sonnette d'alarme que je sonne a à voir avec la menace existentielle qu'ils prennent le contrôle... J'avais l'habitude de penser que c'était dans un avenir lointain, mais maintenant je pense que c'est sérieux et assez proche ». Il n'est pas seul.

Source : plainte

Et vous ?

Quelle lecture faites-vous de la plainte ?
Partagez-vous le point de vue des plaignants ? Avez-vous des zones d'ombre ou de divergences ? Lesquelles ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totolehero777
Membre régulier https://www.developpez.com
Le 29/06/2023 à 11:57
ChatGPT :

En tant que modèle de langage, je ne peux pas fournir d'informations spécifiques sur le statut de protection par des droits de propriété intellectuelle du code que je génère. Mes réponses sont basées sur des modèles statistiques appris à partir de données textuelles disponibles publiquement.

Il revient à l'utilisateur de prendre des précautions et de faire des recherches supplémentaires pour déterminer si le code qu'ils utilisent est protégé par des droits de propriété intellectuelle. Cela peut inclure la consultation de licences de code source ou la recherche de conseils juridiques pour s'assurer de la conformité aux lois applicables.

Il est important de comprendre les risques potentiels associés à l'utilisation de code généré par des modèles de langage et de prendre des mesures appropriées pour respecter les droits de propriété intellectuelle.

=> Vu qu'il lui est impossible de dire si le code qu'il fournit est basé sur du code protégé par droits d'auteur, on ne peut en fait rien utiliser de ce qu'il génère...
0  0