IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« La Chine utilise l'IA américaine contre les États-Unis », affirme un dirigeant de Palantir, une entreprise accusée de fournir des technologies de surveillance et de ciblage basées sur l'IA à Israël

Le , par Mathis Lucas

0PARTAGES

2  0 
La Chine exploiterait des modèles d’IA développés aux États-Unis à son avantage. Cette exploitation servirait des objectifs contraires aux intérêts américains et contribuerait à renforcer son agenda autoritaire. C’est ce qu’affirme Jack Crovitz, dirigeant chez Palantir. Il donne des exemples où des opérateurs chinois auraient utilisé des modèles d'IA comme ChatGPT pour concevoir des systèmes de surveillance ciblant des minorités comme les Ouïghours, ou pour diffuser de la propagande et mener des cyberattaques. Il appelle les États-Unis à durcir les normes de sécurité des modèles d’IA pour empêcher leur utilisation par des acteurs étatiques comme la Chine.

Jack Crovitz est stratège en déploiement chez Palantir Technologies et rédacteur en chef de The Republic, la revue de la Fondation Palantir consacrée à la technologie et à la sécurité nationale. Il a récemment publié une tribune d'opinion dans le Washington Post pour exposer ses craintes face à l'exploitation abusive des modèles d'IA américains par des acteurs étatiques comme la Chine. Son analyse a toutefois suscité des réactions contrastées en ligne.

Jack Crovitz affirme que des acteurs chinois exploitent des modèles d’intelligence artificielle développés aux États-Unis à des fins contraires aux intérêts américains. L’auteur cite notamment des cas récents où des modèles d'IA tels que ChatGPT auraient été utilisés pour développer des outils de surveillance ou des opérations de désinformation, soulignant un risque stratégique majeur si rien n’est fait pour renforcer la sécurité autour de ces technologies.

Exemples d’utilisation problématique des modèles d'IA américains

« Un agent des services de sécurité intérieure chinois a demandé à un modèle d'IA de concevoir un système de surveillance sophistiqué ciblant la minorité ouïghoure. Ce système compilerait les dossiers de police, les données de transport en temps réel et d'autres informations afin d'aider le gouvernement chinois à suivre et à contrôler les Ouïghours. L'agent l'a qualifié de modèle d'alerte pour les individus ouïghours à haut risque », selon l'auteur.


Jack Crovitz a déclaré dans sa tribune que le modèle d'IA utilisé par l'agent chinois n'est rien d'autre que ChatGPT d'OpenAI. OpenAI a rapidement interdit à cet utilisateur d'accéder à ChatGPT. Mais d'après lui, ce n'était pas la première fois que le PCC utilisait des modèles d'IA américains pour son programme autoritaire. Il affirme que si les États-Unis n'agissent dès maintenant pour contre cela, cette exploitation se poursuivra à un rythme soutenu.

« Cela constituerait un grave danger pour la liberté et la sécurité américaines », a déclaré Jack Crovitz. Il rapporte également qu'au cours des derniers mois, OpenAI et Anthropic ont surpris des agents chinois utilisant des modèles d'IA américains pour publier des articles de journaux en espagnol qui « dénigraient les États-Unis », pirater des agences gouvernementales vietnamiennes et créer ce qu'il décrit comme un « outil d'écoute des réseaux sociaux ».

Selon Jack Crovitz, cet outil vise à aider les autorités chinoises à surveiller les réseaux sociaux occidentaux. Anthropic a signalé avoir déjoué des pirates informatiques chinois soutenus par l'État qui utilisaient Claude, le modèle d'IA de l'entreprise, pour mener des cyberattaques contre des entreprises technologiques, des banques et des agences gouvernementales occidentales. Bon nombre de ces attaques ont permis de voler des informations sensibles.

Limites des mesures actuelles contre les utilisations abusives des IA

Pour Jack Crovitz, ces incidents révèlent un angle mort dans la course à l'IA entre les États-Unis et la Chine. « Les décideurs politiques américains partent souvent du principe que la construction des modèles d'IA les plus avancés au monde constitue une victoire dans cette course. Cependant, la véritable compétition ne porte pas seulement sur les capacités, mais aussi sur le contrôle », a-t-il déclaré. Il estime que les protections actuelles sont insuffisantes.

« Même si les laboratoires américains parviennent à dominer technologiquement le développement de l'IA, les États-Unis perdront la bataille stratégique si le PCC et d'autres acteurs hostiles peuvent librement abuser de leurs modèles d'IA de pointe à des fins malveillantes », a ajouté Jack Crovitz.

Il a déclaré que plus les modèles d'IA américains deviennent avancés, plus le risque est grand que des adversaires les exploitent à des fins antiaméricaines. « Il serait tragique que la Silicon Valley et le gouvernement américain investissent des centaines de milliards de dollars dans le développement de l'IA la plus avancée au monde, pour que nos rivaux l'utilisent ensuite à des fins contraires à la liberté et à la sécurité nationale américaines », explique-t-il.

Appel à des standards de sécurité renforcés contre les abus

Face à ces risques, Jack Crovitz préconise que le gouvernement américain impose des règles de sécurité obligatoires aux laboratoires d’IA. Cela inclurait des exigences pour empêcher l’accès et l’usage par des régimes adverses, ainsi que des obligations de signaler aux autorités tout incident de sécurité ou tentative d’exploitation. Certains laboratoires, tels qu’OpenAI et Anthropic, s'imposent déjà ces exigences, mais des incidents surviennent parfois.

« Nous pouvons inverser cette trajectoire dangereuse », a déclaré Jack Crovitz. Selon le dirigeant de Palantir, établir des normes claires et contraignantes permettrait de mieux protéger les technologies américaines contre une exploitation hostile et de préserver les avantages stratégiques de ces innovations.

Jack Crovitz estime que la première réglementation en matière de sécurité que les décideurs politiques devraient mettre en place est l'obligation de signaler les incidents. Les tentatives d'utilisation malveillante ou les incidents de cybersécurité majeurs doivent être signalés aux agences fédérales compétentes, telles que le Center for AI Standards and Innovation, la Cybersecurity and Infrastructure Security Agency et l'AI Security Center.

« Les contribuables et les investisseurs américains consacrent des centaines de milliards de dollars pour que les États-Unis développent l'IA la plus avancée au monde. Ce serait un échec stratégique catastrophique si cet investissement aboutissait à la création de systèmes immédiatement utilisés à des fins militaires par nos adversaires pour porter atteinte à la liberté, à la prospérité et à la sécurité nationale des États-Unis », a déclaré Jack Crovitz.

Le rapport d'incident d'Anthropic suscite une grande controverse

Des chercheurs d'Anthropic ont déclaré avoir récemment observé « la première opération de cyberattaque coordonnée par une IA ». Lors d'une attaque visant des dizaines de cibles, ils auraient détecté que des pirates informatiques avaient utilisé l'outil d'IA Claude de l'entreprise dans le cadre de cette opération. À en croire le rapport d'incident publié par l'équipe, l'acteur de la menace a utilisé Claude Code pour automatiser jusqu'à 90 % du travail.

Anthropic a déclaré que cette attaque est la première campagne orchestrée par une IA visant « de grandes entreprises technologiques, des institutions financières, des entreprises chimiques et des agences gouvernementales ». L'entreprise a ajouté qu'elle est convaincue que « l'acteur de la menace est un groupe soutenu par l'État chinois ». Mais des experts externes se sont montrés beaucoup plus prudents dans leur évaluation de cette cyberattaque.

« Anthropic a essentiellement passé tout le document à souligner comment son IA peut être exploitée à des fins d'intrusion, mais n'a fourni aux défenseurs aucun indicateur de compromission (IOC) ni aucun indice d'attribution... 90 % de flexibilité, 10 % de valeur », a écrit un consultant en cybersécurité. Plusieurs experts ont déclaré que « le rapport d'Anthropic est plus proche d'un support markéting que d'un document technique sur une attaque ».

Le rapport ajoute : « après avoir reçu l'autorisation des opérateurs humains, Claude a procédé à une collecte systématique des identifiants sur les réseaux ciblés. Cela impliquait d'interroger les services internes, d'extraire les certificats d'authentification des configurations et de tester les identifiants récoltés sur les systèmes découverts ». Comment ? Claude a-t-il utilisé Mimikatz ? A-t-il accédé à des environnements cloud ? Le rapport n'y répond pas.

Aucune de ces questions ne trouve de réponse. Pourtant, ce n'est pas comme si Anthropic n'avait pas accès à ces données, puisque l'équipe a déclaré avoir réussi à mettre fin à cette campagne malveillante. Le rapport n'indique même pas quels types de systèmes ont été affectés. En outre, « il n'y a aucun détail ni aucune preuve factuelle » pour étayer ces affirmations ou même aider d'autres personnes à protéger leurs réseaux contre ces menaces.

La tribune de Jack Crovitz suscite de nombreuses critiques

Jack Crovitz est un dirigeant de Palantir, une entreprise accusée d'avoir fourni à Israël « une technologie d'IA de surveillance et de ciblage » utilisée dans la guerre à Gaza. Sa tribune a suscité de nombreuses critiques dans les commentaires. « Je n'arrive pas à croire que ces monstres continuent à se faire passer pour les gentils tout en soutenant le génocide des Palestiniens et en mentant effrontément. Tout ça pour le profit », a écrit un...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !