IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La présidente et le vice-président de Signal avertissent que l'IA agentique est peu sûre, peu fiable et constitue un cauchemar de surveillance
Soulignant les risques profonds pour la sécurité et la vie privée

Le , par Anthony

35PARTAGES

12  0 
Les dirigeants de Signal avertissent que l'essor rapide de l'intelligence artificielle (IA) agentique pourrait entraîner de graves risques en matière de sécurité, de fiabilité et de confidentialité. Meredith Whittaker, la présidente, et Joshua Lund, le vice-président de l'ingénierie, affirment que ces systèmes autonomes, conçus pour agir au nom des utilisateurs, nécessitent un accès approfondi aux appareils et aux données personnelles, créant ainsi de nouvelles vulnérabilités et soulevant des préoccupations en matière de surveillance à grande échelle. Ils exhortent l'industrie à mettre en place des mesures de protection plus strictes, à garantir la transparence et à effectuer des tests rigoureux avant tout déploiement à grande échelle.

Dans le contexte de l'intelligence artificielle générative, les agents IA (également appelés systèmes IA composites ou IA agentique) sont une catégorie d'agents intelligents qui se distinguent par leur capacité à fonctionner de manière autonome dans des environnements complexes. Les outils d'IA agentique privilégient la prise de décision plutôt que la création de contenu et ne nécessitent pas d'intervention humaine ni de supervision continue.

La prise de position de Signal intervient alors que l’IA agentique progresse rapidement dans les produits grand public, introduisant de nouveaux risques en matière de sécurité et de confidentialité. En décembre dernier, Google a reconnu les risques engendrés par l'intégration de l'agent IA Gemini dans Chrome, estimant qu'un second modèle IA est nécessaire pour surveiller le premier. Pensé à terme comme un « navigateur-agent » capable de remplir des formulaires, de naviguer et d'exécuter des actions complexes de manière autonome, Chrome a changé de nature. Cette mutation soulève désormais des questions structurelles relatives au contrôle des accès, à la protection des données et à la fiabilité des systèmes agissant au nom de l’utilisateur.

La Signal Technology Foundation, plus connue sous le nom de Signal Foundation, est une organisation américaine à but non lucratif fondée en 2018 par Moxie Marlinspike et Brian Acton. Sa mission est de « protéger la liberté d'expression et permettre une communication mondiale sécurisée grâce à une technologie open source de protection de la vie privée ». Sa filiale, Signal Messenger LLC, est chargée du développement de l'application de messagerie Signal et du protocole Signal.

Meredith Whittaker est présidente de la Signal Foundation et siège à son conseil d'administration. Elle était auparavant professeure de recherche Minderoo à l'université de New York (NYU), conseillère en chef, ancienne directrice et cofondatrice de l'AI Now Institute. Elle a également occupé le poste de conseillère principale en matière d'IA auprès de la présidente Lina Khan à la Commission fédérale du commerce et a été classée parmi les 100 personnes les plus influentes dans le domaine de l'IA par le magazine TIME en 2023. Meredith Whittaker a travaillé chez Google pendant 13 ans, où elle a fondé le groupe Open Research de Google et cofondé le M-Lab. En 2018, elle a été l'une des principales organisatrices des grèves chez Google et a démissionné de l'entreprise en juillet 2019. En juillet 2025, elle a rejoint le conseil d'administration de la société de médias allemande Hubert Burda Media.


Dans le monde en rapide évolution de l'IA, une nouvelle génération de technologie connue sous le nom d'IA agentique captive l'imagination des développeurs et des consommateurs. Ces systèmes, conçus pour agir de manière indépendante au nom des utilisateurs — réserver des vols, gérer des courriels, ou même négocier des contrats — promettent un avenir d'automatisation sans faille. Mais les récents avertissements des dirigeants de Signal, l'application de messagerie chiffrée réputée pour son accent sur la vie privée, dressent un tableau radicalement différent. La présidente de Signal, Meredith Whittaker, et le vice-président de l'ingénierie, Joshua Lund, ont lancé un appel solennel, soulignant des risques profonds qui pourraient compromettre la sécurité, la fiabilité et la vie privée personnelle à une échelle massive.

Leurs préoccupations découlent de l'architecture fondamentale de l'IA agentique, qui nécessite souvent une intégration profonde dans les systèmes d'exploitation et l'accès à de vastes quantités de données personnelles. Dans une récente interview, Meredith Whittaker a déclaré que ces agents étaient susceptibles de créer des « bases de données stockant des vies numériques entières », qui deviendraient alors des cibles de choix pour les logiciels malveillants et les accès non autorisés. Il ne s'agit pas là d'une simple spéculation, mais d'une réalité qui trouve son origine dans la manière dont ces systèmes d'IA sont déployés, souvent sans le consentement explicite des utilisateurs, s'intégrant au cœur même des appareils et des plateformes.

Lund a fait écho à ces sentiments, soulignant le manque de fiabilité des tâches en plusieurs étapes effectuées par ces agents. Chaque action d'une chaîne peut introduire des erreurs, entraînant des défaillances en cascade qui non seulement frustrent les utilisateurs, mais ouvrent également la porte à des abus. Alors que les entreprises d'IA se précipitent pour intégrer ces capacités dans les outils quotidiens, les dirigeants de Signal affirment que le secteur doit faire une pause et réévaluer la situation avant que des dommages irréversibles ne se produisent.

Exposer les vulnérabilités de sécurité

Le problème central, tel qu'exposé par...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !