IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La présidente et le vice-président de Signal avertissent que l'IA agentique est peu sûre, peu fiable et constitue un cauchemar de surveillance
Soulignant les risques profonds pour la sécurité et la vie privée

Le , par Anthony

0PARTAGES

7  0 
Les dirigeants de Signal avertissent que l'essor rapide de l'intelligence artificielle (IA) agentique pourrait entraîner de graves risques en matière de sécurité, de fiabilité et de confidentialité. Meredith Whittaker, la présidente, et Joshua Lund, le vice-président de l'ingénierie, affirment que ces systèmes autonomes, conçus pour agir au nom des utilisateurs, nécessitent un accès approfondi aux appareils et aux données personnelles, créant ainsi de nouvelles vulnérabilités et soulevant des préoccupations en matière de surveillance à grande échelle. Ils exhortent l'industrie à mettre en place des mesures de protection plus strictes, à garantir la transparence et à effectuer des tests rigoureux avant tout déploiement à grande échelle.

Dans le contexte de l'intelligence artificielle générative, les agents IA (également appelés systèmes IA composites ou IA agentique) sont une catégorie d'agents intelligents qui se distinguent par leur capacité à fonctionner de manière autonome dans des environnements complexes. Les outils d'IA agentique privilégient la prise de décision plutôt que la création de contenu et ne nécessitent pas d'intervention humaine ni de supervision continue.

La prise de position de Signal intervient alors que l’IA agentique progresse rapidement dans les produits grand public, introduisant de nouveaux risques en matière de sécurité et de confidentialité. En décembre dernier, Google a reconnu les risques engendrés par l'intégration de l'agent IA Gemini dans Chrome, estimant qu'un second modèle IA est nécessaire pour surveiller le premier. Pensé à terme comme un « navigateur-agent » capable de remplir des formulaires, de naviguer et d'exécuter des actions complexes de manière autonome, Chrome a changé de nature. Cette mutation soulève désormais des questions structurelles relatives au contrôle des accès, à la protection des données et à la fiabilité des systèmes agissant au nom de l’utilisateur.

La Signal Technology Foundation, plus connue sous le nom de Signal Foundation, est une organisation américaine à but non lucratif fondée en 2018 par Moxie Marlinspike et Brian Acton. Sa mission est de « protéger la liberté d'expression et permettre une communication mondiale sécurisée grâce à une technologie open source de protection de la vie privée ». Sa filiale, Signal Messenger LLC, est chargée du développement de l'application de messagerie Signal et du protocole Signal.

Meredith Whittaker est présidente de la Signal Foundation et siège à son conseil d'administration. Elle était auparavant professeure de recherche Minderoo à l'université de New York (NYU), conseillère en chef, ancienne directrice et cofondatrice de l'AI Now Institute. Elle a également occupé le poste de conseillère principale en matière d'IA auprès de la présidente Lina Khan à la Commission fédérale du commerce et a été classée parmi les 100 personnes les plus influentes dans le domaine de l'IA par le magazine TIME en 2023. Meredith Whittaker a travaillé chez Google pendant 13 ans, où elle a fondé le groupe Open Research de Google et cofondé le M-Lab. En 2018, elle a été l'une des principales organisatrices des grèves chez Google et a démissionné de l'entreprise en juillet 2019. En juillet 2025, elle a rejoint le conseil d'administration de la société de médias allemande Hubert Burda Media.


Dans le monde en rapide évolution de l'IA, une nouvelle génération de technologie connue sous le nom d'IA agentique captive l'imagination des développeurs et des consommateurs. Ces systèmes, conçus pour agir de manière indépendante au nom des utilisateurs — réserver des vols, gérer des courriels, ou même négocier des contrats — promettent un avenir d'automatisation sans faille. Mais les récents avertissements des dirigeants de Signal, l'application de messagerie chiffrée réputée pour son accent sur la vie privée, dressent un tableau radicalement différent. La présidente de Signal, Meredith Whittaker, et le vice-président de l'ingénierie, Joshua Lund, ont lancé un appel solennel, soulignant des risques profonds qui pourraient compromettre la sécurité, la fiabilité et la vie privée personnelle à une échelle massive.

Leurs préoccupations découlent de l'architecture fondamentale de l'IA agentique, qui nécessite souvent une intégration profonde dans les systèmes d'exploitation et l'accès à de vastes quantités de données personnelles. Dans une récente interview, Meredith Whittaker a déclaré que ces agents étaient susceptibles de créer des « bases de données stockant des vies numériques entières », qui deviendraient alors des cibles de choix pour les logiciels malveillants et les accès non autorisés. Il ne s'agit pas là d'une simple spéculation, mais d'une réalité qui trouve son origine dans la manière dont ces systèmes d'IA sont déployés, souvent sans le consentement explicite des utilisateurs, s'intégrant au cœur même des appareils et des plateformes.

Lund a fait écho à ces sentiments, soulignant le manque de fiabilité des tâches en plusieurs étapes effectuées par ces agents. Chaque action d'une chaîne peut introduire des erreurs, entraînant des défaillances en cascade qui non seulement frustrent les utilisateurs, mais ouvrent également la porte à des abus. Alors que les entreprises d'IA se précipitent pour intégrer ces capacités dans les outils quotidiens, les dirigeants de Signal affirment que le secteur doit faire une pause et réévaluer la situation avant que des dommages irréversibles ne se produisent.

Exposer les vulnérabilités de sécurité

Le problème central, tel qu'exposé par Meredith Whittaker et Joshua Lund, tourne autour du niveau d'accès sans précédent que ces agents exigent. Contrairement aux applications traditionnelles qui fonctionnent en silos, l'IA agentique recherche des privilèges « root », brouillant les frontières entre les applications et le système d'exploitation sous-jacent. Cette intégration, bien qu'offrant des fonctionnalités puissantes, expose les utilisateurs à de nouvelles menaces. Les logiciels malveillants pourraient exploiter ces voies d'accès pour extraire des informations sensibles, des dossiers financiers aux communications privées, toutes stockées dans des bases de données centralisées que Whittaker prévient être « accessibles aux logiciels malveillants ».

Des incidents récents soulignent cette vulnérabilité. Au quatrième trimestre 2025, des rapports faisant état d'attaques menées par des agents IA ont fait surface, élargissant ainsi la surface d'attaque pour les cybercriminels. Ces événements impliquaient des agents manipulés pour effectuer des actions non autorisées, soulignant ainsi comment l'autonomie peut se retourner contre son auteur. Meredith Whittaker s'exprime ouvertement à ce sujet depuis des mois, ayant précédemment déclaré lors de la conférence SXSW que l'IA agentique posait des problèmes « profonds » en matière de sécurité et de confidentialité.

De plus, le facteur fiabilité ne peut être surestimé. Joshua Lund souligne que si les tâches simples peuvent être accomplies avec succès, les séquences complexes échouent souvent, les taux d'erreur s'accumulant à chaque étape. Il ne s'agit pas seulement d'un inconvénient : dans des domaines critiques tels que la santé ou la finance, un tel manque de fiabilité pourrait entraîner des dommages réels. Les dirigeants de Signal recommandent vivement de ralentir le déploiement et préconisent des tests rigoureux et des stratégies d'atténuation avant que ces systèmes ne deviennent omniprésents.


Atteinte à la vie privée et risques liés à la surveillance

Au-delà de la sécurité, les implications en matière de surveillance sont tout aussi alarmantes. L'IA agentique, de par sa conception, agrège et analyse de vastes quantités de données personnelles pour fonctionner efficacement. Meredith Whittaker décrit cela comme un « cauchemar en matière de surveillance », où l'intégralité de l'existence numérique des utilisateurs est compilée dans des profils qui pourraient être exploités par des gouvernements, des entreprises ou des pirates informatiques. Dans une interview en novembre 2025, elle a qualifié les agents IA de « menace existentielle » pour les applications de messagerie sécurisée, avertissant que les consommateurs et les entreprises sont terriblement mal préparés.

Cette préoccupation s'aligne sur des sentiments plus larges au sein de l'industrie. Des publications sur X provenant d'influenceurs technologiques et d'experts en cybersécurité reflètent une inquiétude croissante, beaucoup faisant écho aux craintes de Meredith Whittaker concernant l'accès excessif des agents IA aux informations personnelles. Certaines discussions soulignent comment ces systèmes pourraient involontairement permettre une surveillance de masse, en particulier lorsqu'ils sont intégrés aux systèmes d'exploitation sans option de désactivation. Whittaker a constamment soutenu que sans transparence ni contrôle utilisateur, ces agents érodent les fondements de la confidentialité que des applications comme Signal s'efforcent de protéger.

Plusieurs observateurs ont saisi cette urgence, notant les avertissements de Meredith Whittaker concernant les failles de sécurité massives créées par l'intégration de l'IA au niveau du système d'exploitation. Elle souligne que l'enregistrement par défaut des utilisateurs aggrave le problème, transformant les appareils personnels en outils de surveillance potentiels. Il ne s'agit pas d'une hypothèse : les organismes de réglementation en prennent note, le National Institute of Standards and Technology (NIST) ayant récemment sollicité des informations sur les risques liés à l'IA agentique par le biais d'une demande d'informations.

Réponses de l'industrie et appels à l'action

Le secteur technologique n'a cessé de promouvoir l'IA agentielle, poussé par le battage médiatique et les investissements. Cependant, les dirigeants de Signal ne sont pas les seuls à émettre des critiques. Les observateurs ont débattu de la question de savoir...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !