
S'il est possible de se désinscrire, la plateforme précise : « le fait de vous désinscrire signifie que Linkedin et ses sociétés affiliées n'utiliseront pas vos données personnelles pour former des modèles à l'avenir. Mais cela n'affecte pas la formation qui a déjà eu lieu ». Concrètement, toutes les données qui ont déjà été utilisées par Linkedin pour son IA continueront à être utilisés par l'outil.
Contexte
LinkedIn semble suivre les traces d'autres plateformes de médias sociaux, en utilisant vos données personnelles pour former son IA.
Mercredi, le réseau professionnel de Microsoft a publié une mise à jour « confiance et sécurité » dans laquelle Blake Lawit, vice-président senior et avocat général, a révélé l'utilisation par LinkedIn des publications et des données des utilisateurs pour la formation et le déploiement de ses outils d'IA générative.
Dans son annonce, Lawit a indiqué que la politique de confidentialité de LinkedIn avait été mise à jour. La politique mise à jour, qui renvoie à une FAQ révisée, confirme également que les messages ont été automatiquement collectés pour l'entraînement à l'IA. Il semble que LinkedIn ait commencé à collecter du contenu pour ses modèles d'IA et ses utilisateurs bien avant que l'article de Lawit et la politique de confidentialité mise à jour ne rendent ces changements publics.
Selon la FAQ, les fonctionnalités d'IA générative de LinkedIn peuvent utiliser des informations personnelles pour offrir des suggestions, comme vous aider à rédiger des messages lorsque vous y êtes invité. En outre, vos données seront utilisées pour former ces modèles d'IA, et si vous préférez ne pas participer, vous devrez vous désengager activement.
Les utilisateurs de l'Union européenne, de l'Islande, de la Norvège, du Liechtenstein et de la Suisse ne sont pas inclus et ne seront pas ajoutés en raison des récents changements apportés aux lois sur la protection des données. La loi sur les marchés numériques (DMA) oblige certains des plus grands réseaux sociaux à se conformer à de nouvelles règles, ce qui permet aux gens d'utiliser les plateformes sans que leurs informations ne soient partagées.
La situation
LinkedIn a admis mercredi qu'il avait entraîné sa propre IA sur les données de nombreux utilisateurs sans demander leur consentement. Dans un blog détaillant les mises à jour à venir le 20 novembre, l'avocat général de LinkedIn, Blake Lawit, a confirmé que l'accord d'utilisation et la politique de confidentialité de LinkedIn seront modifiés pour mieux expliquer comment les données personnelles des utilisateurs alimentent l'IA sur la plateforme.
Dans le cadre de la nouvelle politique de confidentialité, LinkedIn informe désormais les utilisateurs que « nous pouvons utiliser vos données personnelles [...] [pour] développer et former des modèles d'intelligence artificielle (IA), développer, fournir et personnaliser nos services, et acquérir des connaissances à l'aide de l'IA, de systèmes automatisés et d'inférences, afin que nos services puissent être plus pertinents et utiles pour vous et d'autres personnes. »
Une FAQ explique que les données personnelles peuvent être collectées à chaque fois qu'un utilisateur interagit avec l'IA générative ou d'autres fonctionnalités d'IA, ainsi que lorsqu'un utilisateur compose un message, modifie ses préférences, fournit un retour d'information à LinkedIn ou utilise la plateforme pendant une durée quelconque. Ces données sont ensuite stockées jusqu'à ce que l'utilisateur supprime le contenu généré par l'IA. LinkedIn recommande aux utilisateurs d'utiliser son outil d'accès aux données s'ils souhaitent supprimer ou demander la suppression des données collectées sur les activités passées de LinkedIn.
L'objectif
Les modèles d'IA de LinkedIn qui alimentent les fonctions d'IA générative « peuvent être formés par LinkedIn ou un autre fournisseur », comme Microsoft, qui fournit certains modèles d'IA par l'intermédiaire de son service Azure OpenAI, précise la FAQ. Selon la FAQ de LinkedIn, un risque potentiellement important pour la vie privée des utilisateurs est que les utilisateurs qui « fournissent des données personnelles en entrée d'une fonction générative alimentée par l'IA » pourraient finir par voir leurs « données personnelles fournies en sortie ».
LinkedIn affirme qu'il « cherche à minimiser les données personnelles dans les ensembles de données utilisés pour former les modèles », en s'appuyant sur des « technologies d'amélioration de la confidentialité pour expurger ou supprimer les données personnelles de l'ensemble de données de formation ».
Le blog de Lawit ne précise pas si les données déjà collectées peuvent être supprimées des ensembles de données d'entraînement à l'IA, mais la FAQ affirme que les utilisateurs qui ont automatiquement accepté de partager leurs données personnelles pour l'entraînement à l'IA peuvent uniquement refuser la collecte de données invasive « à l'avenir ».
Le fait de se retirer « n'affecte pas la formation qui a déjà eu lieu », précise la FAQ.
Un porte-parole de LinkedIn a déclaré qu'il était « avantageux pour tous les membres » d'être inscrits à la formation à l'IA « par défaut » : « Les gens peuvent choisir de se retirer, mais ils viennent sur LinkedIn pour être trouvés pour des emplois et des réseaux, et l'IA générative fait partie de la façon dont nous aidons les professionnels dans ce changement », a déclaré le porte-parole de LinkedIn.
En autorisant les opt-outs de la future formation à l'IA, le porte-parole de LinkedIn a en outre affirmé que la plateforme donnait « aux personnes utilisant LinkedIn encore plus de choix et de contrôle lorsqu'il s'agit de la façon dont nous utilisons les données pour former notre technologie d'IA générative ».
Comment se désengager de l'entraînement à l'IA sur LinkedIn
Les utilisateurs peuvent se désengager de l'entraînement à l'IA en accédant à la section « Confidentialité des données » dans les paramètres de leur compte, puis en désactivant l'option permettant la collecte de « données pour l'amélioration de l'IA générative » que LinkedIn active par ailleurs automatiquement pour la plupart des utilisateurs.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">LinkedIn is now using everyone's content to train their AI tool -- they just auto opted everyone in.<br>I recommend opting out now (AND that orgs put an end to auto opt-in, it's not cool)<br>Opt out steps: Settings and Privacy > Data Privacy > Data for Generative AI Improvement (OFF) <a href="https://t.co/UsS61gHw4C">pic.twitter.com/UsS61gHw4C</a></p>— Rachel Tobac (@RachelTobac) <a href="https://twitter.com/RachelTobac/status/1836471586624540705?ref_src=twsrc%5Etfw">September 18, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
La seule exception concerne les utilisateurs de l'Espace économique européen ou de la Suisse, qui sont protégés par des lois plus strictes en matière de protection de la vie privée qui exigent soit le consentement des plateformes pour collecter des données personnelles, soit que les plateformes justifient la collecte de données en tant qu'intérêt légitime. Ces utilisateurs ne verront pas d'option de retrait, car ils n'ont jamais été autorisés à participer, a confirmé LinkedIn à plusieurs reprises.
En outre, les utilisateurs peuvent « s'opposer à l'utilisation de leurs données personnelles pour la formation » de modèles d'IA génératifs non utilisés pour générer du contenu LinkedIn (tels que les modèles utilisés à des fins de personnalisation ou de modération de contenu) en soumettant le formulaire d'objection au traitement des données de LinkedIn.
L'année dernière, LinkedIn a partagé les principes de l'IA, promettant de prendre « des mesures significatives pour réduire les risques potentiels de l'IA ». L'un des risques spécifiés dans l'accord d'utilisation mis à jour est que l'utilisation des fonctions génératives de LinkedIn pour aider à remplir un profil ou générer des suggestions lors de la rédaction d'un message pourrait générer un contenu qui « pourrait être inexact, incomplet, retardé, trompeur ou ne pas convenir à vos fins ».
En octobre, LinkedIn a déclaré que l'intégration de l'IA...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.