
les plaignants demandent 3 milliards de dollars de dommages-intérêts
Microsoft et OpenAI ont été poursuivis mercredi par seize individus anonymes qui affirment que les produits d’intelligence artificielle des entreprises basés sur ChatGPT ont collecté et divulgué leurs informations personnelles sans notification ni consentement adéquats.
La plainte, déposée devant un tribunal fédéral à San Francisco, en Californie, allègue que les deux entreprises ont ignoré les moyens légaux d’obtenir des données pour leurs modèles d’IA et ont choisi de les collecter sans les payer. « Malgré les protocoles établis pour l’achat et l’utilisation des informations personnelles, les défendeurs ont adopté une approche différente : le vol », dit la plainte. « Ils ont systématiquement extrait 300 milliards de mots d’Internet, ‘livres, articles, sites web et publications - y compris des informations personnelles obtenues sans consentement’. OpenAI l’a fait en secret, et sans s’enregistrer comme courtier en données comme il était tenu de le faire en vertu de la loi applicable. »
Par le biais de leurs produits d’IA, affirme-t-elle, les deux entreprises « collectent, stockent, suivent, partagent et divulguent » les informations personnelles de millions de personnes, y compris les détails des produits, les informations sur les comptes, les noms, les coordonnées, les identifiants de connexion, les courriels, les informations de paiement, les relevés de transactions, les données du navigateur, les médias sociaux, les journaux de discussion, les données d’utilisation, les analyses, les cookies, les recherches et autres activités en ligne.
Microsoft et OpenAI accusés d'avoir intégré des informations personnelles de millions de personnes dans leurs produits
La plainte soutient que Microsoft et OpenAI ont intégré dans leurs produits d’IA les informations personnelles de millions de personnes, reflétant des passe-temps, des croyances religieuses, des opinions politiques, des antécédents électoraux, l’appartenance à des groupes sociaux ou de soutien, des orientations sexuelles et des identités de genre, des historiques professionnels, des photos de famille, des amis et d’autres données découlant des interactions en ligne.
OpenAI a développé une famille de modèles génératifs de langage à grande échelle, qui comprend GPT-2, GPT-4 et ChatGPT ; Microsoft non seulement défend la technologie, mais l’a intégrée dans tous les coins de son empire, de Windows à Azure.
« En ce qui concerne les informations personnelles identifiables, les défendeurs ne parviennent pas à les filtrer suffisamment des modèles d’entraînement, mettant ainsi des millions de personnes en danger de voir ces informations divulguées sur demande ou autrement à des étrangers du monde entier », affirme la plainte, citant le rapport sur le sujet.
La plainte de 157 pages est lourde de citations médiatiques et académiques exprimant l’inquiétude au sujet des modèles d’IA et de l’éthique, mais légère sur les cas spécifiques de préjudice. Pour les 16 plaignants, la plainte indique qu’ils ont utilisé ChatGPT ainsi que d’autres services Internet comme Reddit et qu’ils s’attendaient à ce que leurs interactions numériques ne soient pas intégrées dans un modèle d’IA. Il reste à voir comment le contenu et les métadonnées créés par le plaignant ont été exploités et si ChatGPT ou d’autres modèles reproduiront ces données.
La plainte vise le statut de recours collectif
OpenAI a par le passé traité la reproduction d’informations personnelles en les filtrant. La plainte demande le statut de recours collectif et des dommages-intérêts de 3 milliards de dollars (bien que ce montant soit susceptible d’être réduit si l’affaire aboutit). Tout dommage réel serait déterminé si les demandeurs l'emportaient, sur la base des conclusions du tribunal.
La plainte allègue que Microsoft et OpenAI ont violé l'Electronic Privacy Communications Act américain en obtenant et en utilisant des informations privées, et en interceptant illégalement les communications entre les utilisateurs et les services tiers via des intégrations avec ChatGPT et des produits similaires.
La plainte soutient en outre que les accusés ont violé la loi sur la fraude et les abus informatiques en interceptant les données d'interaction grâce à des plugins.
Elle allègue également des violations d'autres lois, notamment les lois californiennes sur l'invasion de la vie privée (Invasion of Privacy Act) et la loi sur la concurrence déloyale, les lois de l'Illinois sur la confidentialité des informations biométriques (Biometric Information Privacy Act) et la loi sur la fraude à la consommation et les pratiques commerciales trompeuses, le droit des affaires de New York ainsi que de divers préjudices généraux (délits) comme la négligence et l'enrichissement sans cause.
La plainte
Ceci est un extrait de la plainte.
Le 19 octobre 2016, Stephen Hawking, professeur de physique théorique à l'Université de Cambridge, a prédit : « Le succès dans la création de l'IA pourrait être le plus grand événement de l'histoire de notre civilisation. Mais ce pourrait aussi être le dernier, à moins que nous n'apprenions à éviter les risques ». Le professeur Hawking a décrit un avenir dans lequel l'humanité choisirait soit d'exploiter les énormes avantages potentiels, soit de succomber aux dangers de l'IA, soulignant que « la montée en puissance d'une IA puissante sera soit la meilleure, soit la pire chose qui puisse arriver à l'humanité ».
L'avenir prédit par le professeur Hawking est arrivé en seulement sept petites années. En utilisant des informations personnelles volées et détournées à grande échelle, les défendeurs ont créé une IA puissante et extrêmement rentable et l'ont diffusée dans le monde sans se soucier des risques. Ce faisant, les défendeurs ont créé une course aux armements contre l'IA dans laquelle les défendeurs et d'autres grandes entreprises technologiques embarquent la société dans un avion qui, selon plus de la moitié des experts en IA interrogés, a au moins 10 % de chances de s'écraser et de tuer tout le monde à bord. L'humanité est maintenant confrontée aux deux routes givrées que le professeur Hawking a prédites et que nous devrions choisir entre : l'une qui mène à la durabilité, à la sécurité et à la prospérité et l'autre qui conduit à l'effondrement de la civilisation.
Les produits ciblés
Ce recours collectif découle de la conduite illégale et préjudiciable des défendeurs dans le développement, la commercialisation et l'exploitation de leurs produits d'IA, y compris ChatGPT-3.5, ChatGPT-4.0, Dall-E et Vall-E (les « Produits »), qui utilisent des informations privées, y compris des informations personnellement identifiables, de centaines de millions d'internautes, y compris des enfants de tous âges, sans leur consentement éclairé ou leur connaissance. En outre, les défendeurs continuent de collecter et de fournir illégalement des données personnelles supplémentaires de millions de consommateurs sans méfiance dans le monde, bien au-delà de toute utilisation raisonnablement autorisée, afin de continuer à développer et à former les produits.
Le mépris des défendeurs pour les lois sur la vie privée n'a d'égal que leur mépris pour le risque potentiellement catastrophique pour l'humanité. Emblématique à la fois du risque ultime - et du mépris ouvert des défendeurs - est cette déclaration du PDG du défendeur OpenAI, Sam Altman : « L'IA conduira probablement à la fin du monde, mais en attendant, il y aura de grandes entreprises ».
Les produits des défendeurs et la technologie sur laquelle ils sont construits ont sans aucun doute le potentiel de faire beaucoup de bien dans le monde, comme aider la recherche scientifique vitale et inaugurer des découvertes qui peuvent améliorer la vie des Américains ordinaires. Avec ce potentiel à l'esprit, la défenderesse OpenAI a été fondée à l'origine en tant qu'organisation de recherche à but non lucratif avec une seule mission : créer et garantir que l'intelligence artificielle serait utilisée au profit de l'humanité. Mais en 2019, OpenAI s'est brusquement restructurée, développant une entreprise à but lucratif qui poursuivrait des opportunités commerciales d'une ampleur stupéfiante.
Un changement dans la manière de procéder d'OpenAI dû à la modification de sa structure
À la suite de la restructuration, OpenAI a abandonné ses objectifs et principes d'origine, choisissant plutôt de rechercher le profit au détriment de la confidentialité, de la sécurité et de l'éthique. Il a doublé sa stratégie pour récolter secrètement d'énormes quantités de données personnelles sur Internet, y compris des informations privées et des conversations privées, des données médicales, des informations sur les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.