En substance, elle a porté sur les assistants vocaux installés sur les Google Home Mini, Apple Homepod, Harman Kardon Invoke (par Microsoft) et les Amazon Echo Dot de deuxième et troisième générations. L’équipe de chercheurs a initié la manœuvre dans le but de déterminer si les haut-parleurs intelligents enregistrent de façon inopinée du son de l’environnement dans lequel ils se trouvent, d’apporter des explications sur la survenue du phénomène et surtout de lui coller des chiffres. La première trouvaille (rassurante) de l’étude (qui s’est appuyée sur 125 heures de contenus Netflix axés sur différents thèmes et genres) est qu’il n’y a rien qui prouve que ces dispositifs effectuent des enregistrements tout le temps. Toutefois, en fonction du haut-parleur dont il est question, les activations inopinées se font à une fréquence qui varie entre 1,5 et 19 fois par jour. « Les HomePod et Cortana s'activent le plus et sont suivis par les Echo Dot série 2, Google Home Mini et Echo Dot série 3 », commentent les chercheurs.
Le dispositif de tests
C’est sur la durée d’activation que l’étude pourrait dresser le poil à plus d’un puisqu’elle fait état de ce que les Echo Dot de deuxième génération et les haut-parleurs intelligents de Microsoft peuvent « écouter » pendant 20 à 45 secondes. En fait, c’est la plage de durées la plus importante, le rapport faisant état de ce que les Homepod enregistrent pour des durées qui tournent autour de 6 secondes.
Sur le pourquoi des activations de longue durée, l’étude pointe la compréhension de mots ou de phrases issus des contenus Netflix par lesdits systèmes comme étant ceux prévus par le constructeur pour leur activation, ce, sans que ce ne soit le cas. À titre d’illustration, pour un Google Home Mini ces activations se produisent lorsqu’il détecte des mots qui renvoient au son lié au mot hey : A, They, Okay, I can Work, What Kind Of, etc. L’étude met en avant des constats similaires liés au mot d’activation programmé par les constructeurs des autres dispositifs. Heureusement pour les possesseurs de ces appareils, le déclenchement ne se ferait pas de manière systématique après la détection d’une séquence sonore apparentée au mot d’activation. D’après les chiffres rapportés par l’équipe de chercheurs, seulement 8,44 % des activations se sont produites de façon constante dans à minima 75 % des tests effectués.
Quoi qu’il en soit, le fait est là : il y a enregistrement à l’insu des utilisateurs. Cet état de choses permet à des prestataires desdites entreprises d’entrer en contact avec des enregistrements vocaux sensibles. Un prestataire d’Apple s’est, sous anonymat, exprimé sur la question à mi-parcours de l’année précédente.
« Le bruit d'une fermeture éclair peut provoquer le déclenchement de l’assistant personnel. Ce dernier peut aussi être activé par d'autres moyens. Par exemple, si une Apple Watch détecte qu'elle a été soulevée et que son possesseur parle. L'Apple Watch peut générer des enregistrements qui peuvent aller jusqu'à 30 secondes, ce qui permet de se faire une bonne idée de ce qui se passe. Il y a eu d'innombrables cas d'enregistrements de discussions privées entre médecins et patients, de transactions commerciales, de transactions apparemment criminelles, d’ébats sexuels, etc. Ces enregistrements sont accompagnés des données qui indiquent l’emplacement des utilisateurs, leurs coordonnées et des données d’applications. La quantité de données que nous sommes libres de consulter semble assez importante. Il ne serait pas difficile d'identifier la personne que vous écoutez surtout avec les déclenchements accidentels qui laissent filtrer les adresses, les noms, etc. », indiquait-il.
L’intervention de ce prestataire d’Apple faisait suite à celle d’un autre travaillant pour un concurrent dans la filière des assistants personnels – Google. En juillet 2019, l’expert en langue a mis un millier d’enregistrements vocaux (obtenus via Google Home) à la disposition du média belge VRT NWS, ce, pour attirer l’attention sur les possibles dérives. La manœuvre avait fini par confirmer certaines craintes comme mentionné par VRT NWS : « cela nous a permis de retrouver aisément les personnes impliquées et de les confronter aux enregistrements audio. »
Ces développements ne sont pas sans faire penser à ceux qui concernent Amazon et son assistant personnel – Alexa. En avril 2019, le géant mondial du commerce en ligne a confirmé qu’il conserve les enregistrements vocaux obtenus via Alexa tant que les utilisateurs ne les suppriment pas. L’entreprise constitue ainsi une base de données de contenus audio dans laquelle ses employés peuvent puiser. Derrière, il y a un travail d’écoute, de transcription et d’annotation qui est fait par ces derniers.
Comme Apple, Amazon avait indiqué que ces employés ne passent en revue qu’un très faible échantillon d’enregistrements vocaux Alexa. En sus, l’entreprise a fait savoir que ces employés n’ont pas directement accès aux informations permettant d’identifier la personne ou le compte dans le cadre de ce flux de travail. Amazon a insisté sur ceci que les opérations de traitement de données sont menées avec le terme confidentialité comme maître mot. Seulement, il est clair qu’il s’agit de déclarations à prendre avec des pincettes si l’on s’appuie sur tous les témoignages qui les infirment.
Source: Etude
Et vous ?
Qu’en pensez-vous ?
Les haut-parleurs intelligents sont-ils des dispositifs plus utiles que le contraire ?
Voir aussi :
Les travailleurs d'Amazon écoutent ce que vous dites à Alexa, son assistant vocal intelligent et en parlent dans un forum de discussion interne
Project Alias « pirate » les enceintes connectées Amazon Echo et Google Home pour protéger la vie privée des utilisateurs
Amazon atteint 100 millions de vente d'appareils intégrant Alexa, son assistant vocal intelligent
Amazon révèle que plus de 10 000 employés travaillent sur Alexa ainsi que sur les appareils Echo qu'il alimente
Alexa, le système vocal intelligent d'Amazon compte environ 80 000 applications dans son Store, mais aucune de vraiment célèbre