IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Depuis son lancement, l'assistant IA rabbit r1 a enregistré secrètement les chats des utilisateurs sans possibilité de les effacer.
L'entreprise assure avoir résolu le problème avec une mise à jour logicielle

Le , par Stéphane le calme

9PARTAGES

8  0 
Depuis le lancement du rabbit r1, l'assistant d'intelligence artificielle stocke les conversations des utilisateurs sur l'appareil sans qu'il soit possible de les effacer, selon un bulletin de sécurité de l'entreprise. Rabbit résout maintenant le problème avec une mise à jour logicielle qui inclut une nouvelle option de réinitialisation d'usine dans les paramètres pour effacer l'appareil. Auparavant, il était seulement possible de dissocier son compte d'une R1, ce qui n'effaçait pas toutes les données de l'utilisateur.

En plus de la nouvelle capacité à supprimer complètement les données de l'utilisateur local, la mise à jour du logiciel aborde également un autre comportement du r1 qui a de quoi faire dresser les cheveux sur la tête. Avant la mise à jour, les données d'appariement stockées qui permettent au R1 d'ajouter des éléments au journal Rabbithole avaient également la permission de lire le journal. Cela signifie qu'un R1 volé et piraté aurait pu potentiellement transmettre les requêtes sauvegardées des utilisateurs, les photos, et plus encore.

Avec la mise à jour, les données d'appairage du r1 ne peuvent plus lire le journal et ne sont plus enregistrées sur l'appareil, et Rabbit a réduit la quantité de données d'enregistrement stockées sur l'appareil. La société affirme qu'il n'y a « aucune indication que les données d'appairage ont été utilisées de manière abusive pour récupérer les données du journal Rabbithole appartenant à un ancien propriétaire de l'appareil ».

Ci-dessous son communiqué à ce sujet :

Le 10 juillet 2024, nous avons pris connaissance d'un risque potentiel impliquant des appareils r1 perdus, volés ou d'occasion avant que les fonctions de réinitialisation des paramètres d'usine ne soient fournies, et nous l'avons immédiatement résolu.

Lors du lancement, les appareils r1 enregistraient les réponses de la synthèse vocale et les données d'appariement des appareils directement dans la mémoire de l'appareil r1. Si un client vendait son appareil après l'avoir utilisé, ou si un appareil était perdu ou volé, le nouveau propriétaire pouvait potentiellement jailbreaker l'appareil et accéder à ces fichiers journaux.

Exemple :
  • J'ai reçu mon r1 et j'ai commencé à l'utiliser le 1er juin.
    • Les données d'appairage ont été enregistrées sur mon appareil.
    • Ces données d'appairage sont utilisées pour écrire des données dans mon journal Rabbithole et déclencher des actions telles que "jouer de la musique" ou "commander de la nourriture".
    • Ces données d'appairage pourraient être utilisées pour lire les données de mon journal Rabbithole.

  • J'ai demandé à mon r1 : "Quel temps fait-il à San Francisco ?"
    • La réponse, "Il fait 74 degrés et le soleil brille à San Francisco", a été enregistrée dans mon appareil.

  • J'ai vendu mon r1 à une autre personne le 3 juin.
  • Cette personne pouvait potentiellement effectuer un "jailbreak" du r1 et récupérer les fichiers journaux contenant "Il fait 74 degrés et le soleil brille à San Francisco" et les données d'appairage et les données d'appairage.

Depuis le 11 juillet, nous avons apporté les modifications suivantes :
  • Les données d'appariement ne peuvent plus être utilisées pour lire dans rabbithole. Elles ne peuvent que déclencher des actions.
  • Les données d'appairage ne sont plus enregistrées sur l'appareil.
  • Nous avons réduit la quantité de données enregistrées sur l'appareil.
  • L'option de réinitialisation d'usine est désormais disponible dans le menu des paramètres. Les clients doivent utiliser cette option pour effacer TOUTES les données de leur r1 avant d'en transférer la propriété.


Un employé a fait fuiter les données de l'entreprise

Le bulletin de sécurité de Rabbit décrit le problème comme un risque relativement peu important, en montrant qu'une R1 volée et jailbreakée pourrait révéler à un acteur malveillant le dernier journal météo demandé par le propriétaire d'origine. Le mois dernier, des chercheurs en sécurité ont déclaré avoir découvert des clés API codées en dur dans la base de code de l'entreprise. Depuis la publication de ce rapport, Rabbit dit avoir retracé la fuite jusqu'à un employé, écrivant que « l'employé a été licencié et fait l'objet d'une enquête » :
  • Nous avons la preuve qu'un employé a divulgué une copie d'un code interne confidentiel à un groupe qui se décrit comme "hacktiviste". L'employé a été licencié et fait l'objet d'une enquête.
  • Le code divulgué comprenait plusieurs clés API. Cependant, nous étions déjà en train de migrer les secrets hors du code et dans AWS Secrets Manager (un outil pour stocker les secrets, comme les clés API, en toute sécurité). Nous avons donné la priorité à ce processus pour toutes les clés ayant accès aux informations personnelles des clients et avons continué à migrer d'autres clés au fil du temps.
  • Le 25 juin 2024, nous avons été informés que ce même groupe d'hacktivistes prétendait avoir accès à des clés d'API opérationnelles pour nos services tiers. Nous avons immédiatement entamé une rotation forcée de tous les secrets connus.
  • Nous avons examiné nos journaux et pensons que le seul usage abusif de ces clés a consisté à envoyer des courriels diffamatoires aux employés de Rabbit, à un petit nombre de journalistes qui encouragent le travail des hacktivistes et à d'autres membres du groupe d'hacktivistes.
  • Nous avons examiné l'impact potentiel de ces clés et, bien qu'aucune donnée client n'ait été exposée lors de cet événement, conformément à notre objectif de transparence, nous décrivons ci-dessous les rôles et fonctions de ces clés et la raison pour laquelle nous leur avons appliqué des contrôles de sécurité supplémentaires :
  • Nous avons reçu des commentaires selon lesquels notre délai de 180 jours pour notre programme de divulgation des vulnérabilités (VDP) est plus long que ce que les chercheurs en sécurité apprécient. La plupart des startups de série A n'ont pas de VDP du tout, mais nous pensons que l'établissement d'une relation avec des chercheurs en sécurité de bonne foi est un moyen essentiel de protéger nos clients. Nous avons entendu les commentaires et avons réduit ce délai à 90 jours.
  • En plus de toutes les mesures de sécurité mentionnées précédemment, nous engageons une société de sécurité tierce pour effectuer un audit indépendant de notre base de code afin de vérifier que tous les secrets historiques ont été révoqués. Cet audit devrait être terminé d'ici la fin du mois d'août, et nous prévoyons de partager ces enseignements dans le cadre d'un article de blog sur l'ingénierie.

De précédents rapports font état de ce que le rabbit r1 est une arnaque montée autour de l’expression « intelligence artificielle »

rabbit r1 a été présenté en avant-première au CES 2024. Son objectif ? Éliminer le besoin de naviguer sur son smartphone lorsque l’utilisateur veut faire une tâche simple (par exemple pour commander un Lyft), voire relativement complexe (par exemple un voyage et des réservations en fonction de dates et d’un budget). rabbit r1 propose plutôt de reproduire les interactions humaines avec les applications en les apprenant (les interactions) puis en supprimant les frictions liées à l'utilisation de son téléphone (prendre son téléphone, le déverrouiller, naviguer pour rechercher son application, l'ouvrir, effectuer la tâche - commander un véhicule, rechercher des informations, etc.). Tout cela sans avoir besoin d'appairer son téléphone.

Toutefois, la connectivité cellulaire fait partie de l'ensemble, tout comme le Wi-Fi, pour exécuter des tâches basées sur l'IA dans les applications sans avoir à ouvrir ces dernières sur votre téléphone : le deuxième appareil (rabbit r1), utilisé pour moins manipuler le premier appareil (téléphone), a besoin de se connecter à internet via le Wi-Fi ou la 4G. De plus, la présence d’un écran, nécessaire pour confirmer certaines commandes, prouve que tout n’est pas résolu dans l’élimination de certaines étapes.

Grosso modo, l'utilité réelle du dispositif portable rabbit r1 a suscité de nombreuses questions après sa présentation et beaucoup se sont demandé pourquoi il n'a pas été lancé en tant qu'application mobile. Il s’est au final avéré que le rabbit r1 n'est qu'une simple application Android. Une personne anonyme a réussi à télécharger l'APK du lanceur de rabbit r1 sur un Google Pixel 6a. Avec un peu de peaufinage, il a réussi à faire fonctionner l'application comme si elle était sur le propre appareil de rabbit. En utilisant la touche volume haut à la place de l'unique bouton matériel du r1, il a pu créer un compte et commencer à lui poser des questions, comme s'il utilisait le rabbit r1 à 199 $.


Conclusion

La situation du Rabbit R1 souligne l’importance de la transparence et de la protection de la vie privée dans le domaine des assistants IA. Les utilisateurs doivent être informés de la manière dont leurs données sont gérées, et les entreprises doivent prendre des mesures pour garantir la sécurité de ces informations sensibles. L'entreprise promet d'améliorer ses pratiques de sécurité et de « prévenir des problèmes similaires à l'avenir », affirmant qu'elle procède à un examen complet des pratiques d'enregistrement des appareils afin de s'assurer qu'elles sont conformes à ses normes « établies dans d'autres domaines ».

Sources : Rabbit (1, 2)

Et vous ?

Confiance envers les assistants IA : êtes-vous préoccupé par la confidentialité de vos conversations avec des assistants IA comme le Rabbit R1 ? Pensez-vous que les fabricants devraient être plus transparents à ce sujet ?
Droits des utilisateurs : devrions-nous avoir le droit de supprimer complètement nos données des appareils IA, même après les avoir vendus ou perdus ?
Sécurité des données : comment les entreprises devraient-elles gérer la sécurité des données stockées sur leurs appareils IA ? Quelles mesures devraient-elles prendre pour protéger la vie privée des utilisateurs ?

Une erreur dans cette actualité ? Signalez-nous-la !