Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Siri enregistre les bagarres, les échanges avec les médecins, les ébats sexuels
Et des prestataires d'Apple écoutent

Le , par Patrick Ruiz

418PARTAGES

17  1 
Apple n’en fait pas mention au sein de ses conditions d’utilisateur, mais l’entreprise confie les enregistrements vocaux de son assistant Siri à des prestataires qui effectuent des analyses de contenu qui, d’après l’entreprise, aident à améliorer le service.

Dans une publication de The Guardian parue il y a peu l’entreprise se veut rassurante : « une petite partie des requête de Siri est analysée pour améliorer le service. Les demandes des utilisateurs ne sont pas associées à leurs identifiants. Les réponses de Siri sont analysées au sein d'installations sécurisées et tous les évaluateurs sont tenus de respecter les strictes exigences de confidentialité d'Apple. » Dans les chiffres, Apple souligne que moins d’1 % des enregistrements vocaux sont utilisés à ces fins et que ceux dont les prestataires font usage durent quelques secondes.

Un prestataire d’Apple s’est, sous anonymat, exprimé sur la question. Il indique que le géant de la Tech. est transparent sur bien peu de choses. En principe, souligne-t-il, l’enregistrement est lancé lorsqu’un utilisateur prononce la phrase « hey Siri », mais il y a que dans la pratique le fonctionnement du dispositif est assez erratique. « Le bruit d'une fermeture éclair peut provoquer le déclenchement de l’assistant personnel. Ce dernier peut aussi être activé par d'autres moyens. Par exemple, si une Apple Watch détecte qu'elle a été soulevée et que son possesseur parle », indique-t-il. Il pointe même l’Apple Watch comme l’une des sources les plus fréquentes d’enregistrements accidentels à côté du HomePod de l’entreprise. « L'Apple Watch peut générer des enregistrements qui peuvent aller jusqu'à 30 secondes, ce qui permet de se faire une bonne idée de ce qui se passe », ajoute-t-il.

Cet état de choses conduit à ce que les prestataires d’Apple de part le monde se retrouvent en contact avec des enregistrements vocaux couplés à des données personnelles très sensibles. « Il y a eu d'innombrables cas d'enregistrements de discussions privées entre médecins et patients, de transactions commerciales, de transactions apparemment criminelles, d’ébats sexuels, etc. Ces enregistrements sont accompagnés des données qui indiquent l’emplacement des utilisateurs, leurs coordonnées et des données d’applications », s’inquiète-t-il.

C’est connu, Apple a basé sa réputation sur le respect de la vie privée des utilisateurs de ses produits et services. En début d’année, l’entreprise a d’ailleurs tiré sur la concurrence en martelant que « ce qui se passe sur un iPhone y demeure » – une façon de dire que question vie privée, son offre est imbattable. Seulement, l’on pourrait bien arguer que les révélations de l’informateur de The Guardian ne collent pas avec ces valeurs. En effet, ce dernier relève que l’entreprise ne fait pas montre de rigueur dans le processus d’identification des tiers qu’elle charge d’analyser les enregistrements. En sus, il y a qu’il juge trop importante la sensibilité des données avec lesquelles les prestataires sont en contact pour qu’on ne s’inquiète pas des possibles dérives. C’est justement pour prévenir les utilisateurs de l’éventualité de leur survenue qu’il a décidé de faire cette sortie.

« Il n'y a à proprement parler pas d'examen minutieux des personnes affectées à ce processus et la quantité de données que nous sommes libres de consulter semble assez importante. Il ne serait pas difficile d'identifier la personne que vous écoutez surtout avec less déclenchements accidentels qui laissent filtrer les adresses, les noms, etc. », rapporte The Guardian.


L’intervention de ce prestataire d’Apple fait suite à celle d’un autre travaillant pour un concurrent dans la filière des assistants personnels – Google. À mi-parcours du mois qui s’achève, l’expert en langue a mis un millier d’enregistrements vocaux (obtenus via Google Home) à la disposition du média belge VRT NWS, ce, pour attirer l’attention sur les possibles dérives. La manœuvre avait fini par confirmer certaines craintes comme mentionné par VRT NWS : « cela nous a permis de retrouver aisément les personnes impliquées et de les confronter aux enregistrements audio. »

Ces développements ne sont pas sans faire penser à ceux qui concernent Amazon et son assistant personnel – Alexa. En avril, le géant mondial du commerce en ligne a confirmé qu’il conserve les enregistrements vocaux obtenus via Alexa tant que les utilisateurs ne les suppriment pas. L’entreprise constitue ainsi une base de données de contenus audios dans laquelle ses employés peuvent puiser. Derrière, il y a un travail d’écoute, de transcription et d’annotation qui est fait par ces derniers.

Comme Apple, Amazon a indiqué que ces employés ne passent en revue qu’un très faible échantillon d’enregistrements vocaux Alexa. En sus, l’entreprise a fait savoir que ces employés n’ont pas directement accès aux informations permettant d’identifier la personne ou le compte dans le cadre de ce flux de travail. Amazon a insisté sur ceci que les opérations de traitement de données sont menées avec le terme confidentialité comme maître mot. Seulement, il est clair qu’il s’agit de déclarations à prendre avec des pincettes si l’on s’appuie sur tous les témoignages qui les infirment.

Source : The Guardian

Et vous ?

Qu’en pensez-vous ?

Voir aussi :

Les travailleurs d'Amazon écoutent ce que vous dites à Alexa, son assistant vocal intelligent et en parlent dans un forum de discussion interne

Project Alias « pirate » les enceintes connectées Amazon Echo et Google Home pour protéger la vie privée des utilisateurs

Nest : la société est morte à Google I/O 2019, avec son écosystème, ses comptes, son pare-feu de confidentialité ; place maintenant à Google Nest

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 28/07/2019 à 16:11
c'est le cas pour tout les assistant audio, dans les smartphone, télé, voitures et autres. et les services judiciaires s'en lèchent les babines.

en gros il faut faire gaffe a ce qu'on dit en public comme en privé vu qu'il y a des micros partout. en impose une sécurité drastique dans les zone dédié au niveau matériel, mais on laisse n'importe qui avec son téléphone (en mode écoute..). allez comprendre
8  0 
Avatar de rawsrc
Modérateur https://www.developpez.com
Le 29/07/2019 à 13:05
Citation Envoyé par sebastiano Voir le message
Ca existe déjà pour le Google Home, un appareil qui vient se greffer à l'entrée du micro et qui l'empêche d'écouter si pas besoin.
ouais et c'est là qu'on apprend que derrière, c'est les serveurs de google qui font le taf
C'est google qui décide s'il doit écouter ou pas mais pour décider, ben ma bonne dame, il faut tout écouter
8  0 
Avatar de rawsrc
Modérateur https://www.developpez.com
Le 01/08/2019 à 8:43
Citation Envoyé par loulnux Voir le message
entretenir le pegus vulgum dans l'ignorance et la bêtise et l'asservir à souhait.
ouais, mais c'est pour son bien, vois-tu.
Que veux-tu t'y opposer quand c'est vendu avec une finalité aussi noble, tu ne dis rien, tu ne fais rien, tu remercies, amen.
4  0 
Avatar de yoyo3d
Membre éclairé https://www.developpez.com
Le 29/07/2019 à 8:54
il n'y à aucun doute possible sur le fait que, même si une conversation n'est pas "directement rattachée à un compte utilisateur" , je le met entre guillemets car je n'y crois pas une seule seconde...., il est effectivement très facile grâce à quelques portions de communications téléphoniques (les 10 premières secondes suffisent) de définir le nom de l'utilisateur et la ville ou il habite , tout simplement parce que, quand j’appelle un artisan, mon toubib ou un tiers quelconque, je me présente....
3  0 
Avatar de ddoumeche
Membre extrêmement actif https://www.developpez.com
Le 29/07/2019 à 10:36
Je propose que l'on mette au point une IA écoutant et décidant elle-même si Siri a le droit d'écouter ...

et ce afin de protéger votre vie privée...
3  0 
Avatar de Battant
Membre averti https://www.developpez.com
Le 31/07/2019 à 12:58
Bonjour,

Avez-vous essayé des assistants vocaux basé sur des logiciels libres

Framasoft de son côté recommande ceci

https://framalibre.org/content/snips

Il y en a bien d’autres Comme par exemple comme par exemple lucide ou encore mycraft et jasper

Est-ce que vous en avez testé un

Meilleur salutations

Battant
1  0 
Avatar de sebastiano
Membre extrêmement actif https://www.developpez.com
Le 29/07/2019 à 10:42
Citation Envoyé par ddoumeche Voir le message
Je propose que l'on mette au point une IA écoutant et décidant elle-même si Siri a le droit d'écouter ...

et ce afin de protéger votre vie privée...
Ca existe déjà pour le Google Home, un appareil qui vient se greffer à l'entrée du micro et qui l'empêche d'écouter si pas besoin.
0  0 
Avatar de i5evangelist
Membre averti https://www.developpez.com
Le 29/07/2019 à 13:43
Sailfish X vient de passer à la version 3.1 dans sa version pour Sony Xperia, ça vaut le coup de tester.
Je me suis totalement déshabitué d'Android depuis 6 mois que je l'utilise même si ce n'est pas encore totalement abouti, c'est un linux, et pour les bricoleurs, il y a matière à s'amuser :-)
0  0 
Avatar de sebastiano
Membre extrêmement actif https://www.developpez.com
Le 29/07/2019 à 14:03
Citation Envoyé par rawsrc Voir le message
ouais et c'est là qu'on apprend que derrière, c'est les serveurs de google qui font le taf
C'est google qui décide s'il doit écouter ou pas mais pour décider, ben ma bonne dame, il faut tout écouter
L'hégémonie de Google est assez effrayante.
0  0 
Avatar de impopia
Membre à l'essai https://www.developpez.com
Le 31/07/2019 à 17:48
Bonjour,
Ils m'apparaissent comme une grosse intrusion dans la vie privée des gens ces assistants.
À juger selon le prix d'un tel appareil (Apple, Samsung et j'en passe), on devrait pouvoir désinstaller toute trace de l'assistant ou bien, quand on achète un téléphone, pouvoir choisir un iPhone ou iPad ou n'importe quel appareil Android dont le système d'opération ne contient aucun logiciel "assistant".
Moi personnellement je n'utilise aucun assistant, je les ai désactivé sur tous mes appareils, aucune application installée n'utilise Siri.
En plus, tout ce logiciel occupe du stockage qui pourrait être utilisé pour qqch d'utile, et j'imagine que c'est qqch de très costaud comme dimension, avec de multiples composants qui risquent de mal fonctionner d'autant plus qu'il sont nombreux (si tout ce logiciel est vraiment DANS l'appareil et non pas sur un serveur qq part...). Je pense qu'on gagnerait beaucoup en performance et en capacité de stockage si on pouvait éliminer carrément ce logiciel de l'appareil.
Qu'en pensez-vous ?
Cordialement
0  0