IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les désinstallations de ChatGPT d'OpenAI ont bondi de 295 % après l'accord avec le ministère américain de la Guerre, tandis que les téléchargements de Claude d'Anthropic ont augmenté de 51 %

Le , par Jade Emy

27PARTAGES

6  0 
Les désinstallations de ChatGPT d'OpenAI ont bondi de 295 % après l'accord avec le ministère américain de la Guerre, tandis que les téléchargements de Claude d'Anthropic ont augmenté de 51 %

Les utilisateurs américains ont réagi rapidement après qu'OpenAI a confirmé son partenariat avec le ministère de la Défense, désormais rebaptisé « ministère de la Guerre » sous l'administration Trump. Les désinstallations de ChatGPT bondissent de 295 % après l'annonce de l'accord avec le ministère américain de la Défense. Les téléchargements de Claude augmentent alors que les utilisateurs américains changent d'application. Le classement de l'App Store évolue après la controverse sur la défense.

Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

De nouvelles données montrent un changement radical dans les téléchargements, le classement des applications et les avis des utilisateurs dans les jours qui ont suivi l'annonce. Les sociétés d'études de marché rapportent que ChatGPT a été confronté à une vague de désinstallations, à un ralentissement de sa croissance et à une baisse de ses notes, tandis que son concurrent Claude, d'Anthropic, a connu un succès considérable.

Selon Sensor Tower, les désinstallations de l'application mobile ChatGPT aux États-Unis ont bondi de 295 % d'un jour à l'autre le samedi 28 février. Cela marque un écart significatif par rapport au taux de désinstallation quotidien habituel de l'application, qui était de 9 % au cours des 30 derniers jours. Dans le même temps, la croissance des téléchargements s'est affaiblie. Après avoir augmenté de 14 % d'un jour à l'autre vendredi, avant que la nouvelle du partenariat ne soit rendue publique, les téléchargements aux États-Unis ont chuté à 13 % samedi. Ils sont tombés à 5 % dimanche, prolongeant le ralentissement pendant le week-end.

Le sentiment des utilisateurs était également visible dans les notes. Sensor Tower a rapporté que les avis une étoile pour ChatGPT ont bondi de 775 % samedi, puis ont encore augmenté de 100 % d'un jour à l'autre dimanche. Au cours de la même période, les avis cinq étoiles ont diminué de 50 %. Claude, d'Anthropic, a profité de ce changement. Les données de Sensor Tower ont montré que les téléchargements de Claude aux États-Unis ont augmenté de 37 % par rapport à la veille le vendredi 27 février, puis de 51 % le samedi 28 février.


Cette augmentation fait suite à la déclaration publique d'Anthropic selon laquelle elle ne s'associerait pas avec le département américain de la Défense. La société a déclaré qu'elle ne pouvait pas accepter les conditions de l'accord en raison de craintes que l'IA puisse être utilisée pour surveiller les Américains ou déployée dans des armes entièrement autonomes, ce qu'elle estime que l'IA n'est pas encore prête à gérer en toute sécurité à grande échelle.

Un rapport de Appfigures montre que le nombre total de téléchargements quotidiens de Claude aux États-Unis samedi a dépassé pour la première fois celui de ChatGPT. Selon les estimations, la croissance des téléchargements de Claude aux États-Unis a atteint 88 % samedi par rapport à la veille. Cette dynamique s'est reflétée dans le classement des boutiques d'applications. Claude a atteint la première place de l'App Store américain samedi et y est resté lundi 2 mars. Cela représente une progression de plus de 20 places par rapport au 22 février 2026.

Le rapport a également noté que Claude était devenue l'application iPhone gratuite n° 1 dans six pays en dehors des États-Unis, notamment en Belgique, au Canada, en Allemagne, au Luxembourg, en Norvège et en Suisse.

Un rapport de Similarweb a indiqué que les téléchargements de Claude aux États-Unis au cours de la semaine dernière étaient environ 20 fois plus élevés qu'en janvier. Toutefois, il a averti que cette hausse n'était peut-être pas uniquement due à des préoccupations politiques et pouvait refléter d'autres facteurs, notamment un intérêt plus large pour les outils d'IA. Ensemble, les données indiquent un changement rapide et mesurable dans le comportement des utilisateurs à la suite de l'annonce du partenariat de défense.

Pourtant, dans un développement frappant qui souligne la complexité de l'intégration de l'IA dans les systèmes de défense nationale, l'armée américaine aurait eu recours au modèle d'IA Claude d'Anthropic lors de ses récentes frappes contre l'Iran, quelques heures seulement après que le président américain Donald Trump ait qualifié l'entreprise de « risque pour la chaîne d'approvisionnement ». Selon des informations publiées par le Wall Street Journal, le département américain de la Défense aurait utilisé le modèle d'IA Claude d'Anthropic pour faciliter la collecte de renseignements, l'identification des cibles et les simulations de champ de bataille pendant l'opération.

Source : Sensor Tower

Et vous ?

Pensez-vous que ces rapports sont crédibles ou pertinents ?
Quel est votre avis sur le sujet ?

Voir aussi :

Claude détrône ChatGPT sur l'App Store et Play Store après le refus d'Anthropic de céder aux exigences militaires sur son IA : l'entreprise a transformé une punition politique en triomphe commercial

L'IA et les drones détournés de leur usage initial et convertis en armes destructrices : les États-Unis frappent l'Iran avec des armes qui sont des copies de ses propres drones kamikazes Shahed 136

Après qu'Anthropic ait bloqué brutalement Openclaw techniquement et légalement, Sam Altman l'opportuniste en profite pour récupérer le bébé dans le giron d'OpenAI
Vous avez lu gratuitement 3 195 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0