IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« La Chine utilise l'IA américaine contre les États-Unis », affirme un dirigeant de Palantir, une entreprise accusée de fournir des technologies de surveillance et de ciblage basées sur l'IA à Israël

Le , par Mathis Lucas

81PARTAGES

2  0 
La Chine exploiterait des modèles d’IA développés aux États-Unis à son avantage. Cette exploitation servirait des objectifs contraires aux intérêts américains et contribuerait à renforcer son agenda autoritaire. C’est ce qu’affirme Jack Crovitz, dirigeant chez Palantir. Il donne des exemples où des opérateurs chinois auraient utilisé des modèles d'IA comme ChatGPT pour concevoir des systèmes de surveillance ciblant des minorités comme les Ouïghours, ou pour diffuser de la propagande et mener des cyberattaques. Il appelle les États-Unis à durcir les normes de sécurité des modèles d’IA pour empêcher leur utilisation par des acteurs étatiques comme la Chine.

Jack Crovitz est stratège en déploiement chez Palantir Technologies et rédacteur en chef de The Republic, la revue de la Fondation Palantir consacrée à la technologie et à la sécurité nationale. Il a récemment publié une tribune d'opinion dans le Washington Post pour exposer ses craintes face à l'exploitation abusive des modèles d'IA américains par des acteurs étatiques comme la Chine. Son analyse a toutefois suscité des réactions contrastées en ligne.

Jack Crovitz affirme que des acteurs chinois exploitent des modèles d’intelligence artificielle développés aux États-Unis à des fins contraires aux intérêts américains. L’auteur cite notamment des cas récents où des modèles d'IA tels que ChatGPT auraient été utilisés pour développer des outils de surveillance ou des opérations de désinformation, soulignant un risque stratégique majeur si rien n’est fait pour renforcer la sécurité autour de ces technologies.

Exemples d’utilisation problématique des modèles d'IA américains

« Un agent des services de sécurité intérieure chinois a demandé à un modèle d'IA de concevoir un système de surveillance sophistiqué ciblant la minorité ouïghoure. Ce système compilerait les dossiers de police, les données de transport en temps réel et d'autres informations afin d'aider le gouvernement chinois à suivre et à contrôler les Ouïghours. L'agent l'a qualifié de modèle d'alerte pour les individus ouïghours à haut risque », selon l'auteur.


Jack Crovitz a déclaré dans sa tribune que le modèle d'IA utilisé par l'agent chinois n'est rien d'autre que ChatGPT d'OpenAI. OpenAI a rapidement interdit à cet utilisateur d'accéder à ChatGPT. Mais d'après lui, ce n'était pas la première fois que le PCC utilisait des modèles d'IA américains pour son programme autoritaire. Il affirme que si les États-Unis n'agissent dès maintenant pour contre cela, cette exploitation se poursuivra à un rythme soutenu.

« Cela constituerait un grave danger pour la liberté et la sécurité américaines », a déclaré Jack Crovitz. Il rapporte également qu'au cours des derniers mois, OpenAI et Anthropic ont surpris des agents chinois utilisant des modèles d'IA américains pour publier des articles de journaux en espagnol qui « dénigraient les États-Unis », pirater des agences gouvernementales vietnamiennes et créer ce qu'il décrit comme un « outil d'écoute des réseaux sociaux ».

Selon Jack Crovitz, cet outil vise à aider les autorités chinoises à surveiller les réseaux sociaux occidentaux. Anthropic a signalé avoir déjoué des pirates informatiques chinois soutenus par l'État qui utilisaient Claude, le modèle d'IA de l'entreprise, pour mener des cyberattaques contre des entreprises technologiques, des banques et des agences gouvernementales occidentales. Bon nombre de ces attaques ont permis de voler des informations sensibles.

Limites des mesures actuelles contre les utilisations abusives des IA

Pour Jack Crovitz, ces incidents révèlent un angle mort dans la course à l'IA entre les États-Unis et la Chine. « Les décideurs politiques américains partent souvent du principe que la construction des modèles d'IA les plus avancés au monde constitue une victoire dans cette course. Cependant, la véritable compétition ne porte pas seulement sur les capacités, mais aussi sur le contrôle », a-t-il déclaré. Il estime que les protections actuelles sont insuffisantes.

« Même si les laboratoires américains parviennent à dominer technologiquement le développement de l'IA, les États-Unis perdront la bataille stratégique si le PCC et d'autres acteurs hostiles peuvent librement abuser de leurs modèles d'IA de pointe à des fins malveillantes », a ajouté Jack Crovitz.

Il a déclaré que plus les modèles d'IA américains deviennent avancés, plus le risque est grand que des adversaires les exploitent à des fins antiaméricaines. « Il serait tragique que la Silicon Valley et le gouvernement américain investissent des centaines de milliards de dollars dans le développement de l'IA la plus avancée au monde, pour que nos rivaux l'utilisent ensuite à des fins contraires à la liberté et à la sécurité nationale américaines », explique-t-il.

Appel à des standards de sécurité renforcés contre les abus

Face à ces risques, Jack Crovitz préconise que le gouvernement américain impose des règles de sécurité obligatoires aux laboratoires d’IA. Cela inclurait des exigences pour empêcher l’accès et l’usage par des régimes adverses, ainsi que des obligations de signaler aux autorités tout incident de sécurité ou tentative d’exploitation. Certains laboratoires, tels qu’OpenAI et Anthropic, s'imposent déjà ces exigences, mais des incidents surviennent parfois.

« Nous pouvons inverser cette...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !