Instagram est utilisé par de nombreux artistes pour promouvoir leur travail et solliciter des clients payants. Mais Meta utilise les posts publics pour entraîner ses systèmes d'intelligence artificielle générative, et seuls les utilisateurs européens peuvent s'y soustraire, car ils sont protégés par le RGPD. C’est la raison du volte-face de nombreux utilisateurs qui ont préféré aller voir du côté du réseau social anti-IA dénommé Cara.
Cara, qui dispose d'une application web et d'une application mobile, est une combinaison d'Instagram et de X, mais conçue avec les artistes comme cible spéciale. Sur chaque profil utilisateur, il est possible d’héberger un portefeuille de travaux, mais en sus de publier des mises à jour sur son fil d'actualité comme sur n'importe quel autre site de microblogging.
La plateforme anti-IA est pensée par une artiste pour les artistes qui peuvent publier sans risquer de voir leurs créations intégrer un ensemble de données d'entraînement pour les modèles d’intelligence artificielle de Meta.
Ces intrusions contre lesquelles les artistes font bloc semblent prendre de l’ampleur à l’ère de l’intelligence artificielle ?
Adobe a procédé à la publication de nouvelles conditions générales que les utilisateurs sont tenus d’accepter sous peine de ne plus pouvoir faire usage des logiciels pour lesquels ils paient un abonnement mensuel : Photoshop, Lightroom, Adobe Premier, etc. Pire, ces nouvelles CGU leur imposent d’autoriser à Adobe à accéder à leurs projets actifs aux fins d’entraînement de ses modèles d’intelligence artificielle et de « modération de contenus » entre autres.
Le « contenu », tel qu'il est défini dans les nouvelles CGU d’Adobe, concerne tout ce que l’utilisateur fait avec le logiciel. Adobe se donne le droit via ces dernières d'accéder à votre contenu (vidéos, etc.), de le visionner ou même de l'écouter.
Cela inclut tout contenu que l’utilisateur télécharge sur leur plateforme d’informatique en nuage, et même les fichiers locaux. Dans le cas des fichiers locaux, les rapports y relatifs font état de ce qu’il suffit que l’utilisateur fasse usage d’une fonctionnalité qui intègre une des IA de gestion de contenus d’Adobe pour que le fichier soit transféré sur ses serveurs.
Cet état de choses suscite des inquiétudes car cela signifie qu'Adobe aura accès à des projets faisant l'objet d'un accord de non-divulgation, tels que des logos pour des jeux non annoncés ou d'autres projets médiatiques. Cela est d’autant plus à prendre en compte que les employés de ces entreprises se permettent souvent d’abuser de leurs accès admin pour avoir accès à de tels contenus. Le récent cas Google l’illustre.
Microsoft n’est pas en reste avec Recall pour Windows 11 qui est un outil de recherche et de suivi de l'activité informatique, qui bénéficie de la puissance de l'intelligence artificielle. Lorsqu'il est activé, Recall prend régulièrement des clichés du bureau de l’utilisateur, qui peuvent ensuite servir de base à une recherche. Microsoft se veut rassurant sur ceci que les utilisateurs ont un contrôle total sur les applications et les activités qui sont enregistrées, mais ils ont aussi la tranquillité d'esprit de savoir que tous les traitements de données sont effectués localement et que les données privées sont tenues à l'écart de l'intelligence artificielle.
L’IA apparaît plus que jamais comme « l’œil de Sauron » qui met à mal les notions de confidentialité et de vie privée qui figurent parmi les droits des individus.
« Nous attendons des organisations qu'elles soient transparentes avec les utilisateurs sur la manière dont leurs données sont utilisées et qu'elles ne traitent les données personnelles que dans la mesure où cela est nécessaire pour atteindre un objectif spécifique. L'industrie doit prendre en compte la protection des données dès le départ et évaluer et atténuer rigoureusement les risques pour les droits et libertés des personnes avant de mettre des produits sur le marché.
Nous nous renseignons auprès de Microsoft pour comprendre les garanties mises en place pour protéger la vie privée des utilisateurs », écrit l'ICO (« Information Commissioner's Office ») – l'autorité en charge du respect de la règlementation applicable aux données personnelles au Royaume Uni.
Source : Zemotion
Et vous ?
Que pensez-vous de cette multiplication de mises à jour de politique de confidentialité qui ouvrent l’accès aux modèles d’intelligence artificielle des entreprises sur les PC des utilisateurs de leurs logiciels et services ? Cet état de choses vous surprend-t-il ? L’intelligence artificielle est-elle venue exacerber des pratiques qui avaient déjà cours ?
Comment expliquer qu’une solution comme Linux qui maintient les utilisateurs en contrôle de leur liberté et autonomie numérique continuent de peiner face à Windows sur le desktop ?
Que proposeriez-vous à des tiers qui souhaitent se protéger leurs contenus et données d'une utilisation comme données d'entraînement des IA des géants technologiques ?
Quelles dispositions entendez-vous prendre en tant qu'utilisateur de Photoshop ou de tout autre logiciel dont Adobe est l'éditeur ?
Voir aussi :
La presse écrite veut être payée pour les articles utilisés pour alimenter l'outil d'IA ChatGPT, elle exige une part du marché qui devrait atteindre 1 300 millions de dollars d'ici à 2032
OpenAI justifie pourquoi les données collectées pour la formation des modèles d'IA constituent selon elle un usage loyal et non une infraction
Des chercheurs mettent en garde contre un "effondrement du modèle" lorsque l'IA s'entraîne sur du contenu généré par l'IA, ils affirment que cela pourrait à terme éloigner l'IA de la réalité