LinkedIn a récemment admis qu’il utilise les données des utilisateurs pour entraîner ses modèles d’intelligence artificielle (IA) sans leur consentement préalable. Cette pratique soulève des préoccupations majeures en matière de confidentialité et de protection des données personnelles. S'il est possible de se désinscrire, la plateforme précise : « le fait de vous désinscrire signifie que Linkedin et ses sociétés affiliées n'utiliseront pas vos données personnelles pour former des modèles à l'avenir. Mais cela n'affecte pas la formation qui a déjà eu lieu ». Concrètement, toutes les données qui ont déjà été utilisées par Linkedin pour son IA continueront à être utilisés par l'outil.
Contexte
LinkedIn semble suivre les traces d'autres plateformes de médias sociaux, en utilisant vos données personnelles pour former son IA.
Mercredi, le réseau professionnel de Microsoft a publié une mise à jour « confiance et sécurité » dans laquelle Blake Lawit, vice-président senior et avocat général, a révélé l'utilisation par LinkedIn des publications et des données des utilisateurs pour la formation et le déploiement de ses outils d'IA générative.
Dans son annonce, Lawit a indiqué que la politique de confidentialité de LinkedIn avait été mise à jour. La politique mise à jour, qui renvoie à une FAQ révisée, confirme également que les messages ont été automatiquement collectés pour l'entraînement à l'IA. Il semble que LinkedIn ait commencé à collecter du contenu pour ses modèles d'IA et ses utilisateurs bien avant que l'article de Lawit et la politique de confidentialité mise à jour ne rendent ces changements publics.
Selon la FAQ, les fonctionnalités d'IA générative de LinkedIn peuvent utiliser des informations personnelles pour offrir des suggestions, comme vous aider à rédiger des messages lorsque vous y êtes invité. En outre, vos données seront utilisées pour former ces modèles d'IA, et si vous préférez ne pas participer, vous devrez vous désengager activement.
Les utilisateurs de l'Union européenne, de l'Islande, de la Norvège, du Liechtenstein et de la Suisse ne sont pas inclus et ne seront pas ajoutés en raison des récents changements apportés aux lois sur la protection des données. La loi sur les marchés numériques (DMA) oblige certains des plus grands réseaux sociaux à se conformer à de nouvelles règles, ce qui permet aux gens d'utiliser les plateformes sans que leurs informations ne soient partagées.
La situation
LinkedIn a admis mercredi qu'il avait entraîné sa propre IA sur les données de nombreux utilisateurs sans demander leur consentement. Dans un blog détaillant les mises à jour à venir le 20 novembre, l'avocat général de LinkedIn, Blake Lawit, a confirmé que l'accord d'utilisation et la politique de confidentialité de LinkedIn seront modifiés pour mieux expliquer comment les données personnelles des utilisateurs alimentent l'IA sur la plateforme.
Dans le cadre de la nouvelle politique de confidentialité, LinkedIn informe désormais les utilisateurs que « nous pouvons utiliser vos données personnelles [...] [pour] développer et former des modèles d'intelligence artificielle (IA), développer, fournir et personnaliser nos services, et acquérir des connaissances à l'aide de l'IA, de systèmes automatisés et d'inférences, afin que nos services puissent être plus pertinents et utiles pour vous et d'autres personnes. »
Une FAQ explique que les données personnelles peuvent être collectées à chaque fois qu'un utilisateur interagit avec l'IA générative ou d'autres fonctionnalités d'IA, ainsi que lorsqu'un utilisateur compose un message, modifie ses préférences, fournit un retour d'information à LinkedIn ou utilise la plateforme pendant une durée quelconque. Ces données sont ensuite stockées jusqu'à ce que l'utilisateur supprime le contenu généré par l'IA. LinkedIn recommande aux utilisateurs d'utiliser son outil d'accès aux données s'ils souhaitent supprimer ou demander la suppression des données collectées sur les activités passées de LinkedIn.
L'objectif
Les modèles d'IA de LinkedIn qui alimentent les fonctions d'IA générative « peuvent être formés par LinkedIn ou un autre fournisseur », comme Microsoft, qui fournit certains modèles d'IA par l'intermédiaire de son service Azure OpenAI, précise la FAQ. Selon la FAQ de LinkedIn, un risque potentiellement important pour la vie privée des utilisateurs est que les utilisateurs qui « fournissent des données personnelles en entrée d'une fonction générative alimentée par l'IA » pourraient finir par voir leurs « données personnelles fournies en sortie ».
LinkedIn affirme qu'il « cherche à minimiser les données personnelles dans les ensembles de données utilisés pour former les modèles », en s'appuyant sur des « technologies d'amélioration de la confidentialité pour expurger ou supprimer les données personnelles de l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


