
Anthropic a récemment annoncé qu'il lançait Claude Gov pour les clients américains du secteur de la sécurité nationale, un ensemble exclusif de modèles d'intelligence artificielle (IA) qui est déjà entre les mains de certaines agences gouvernementales. Anthropic a déclaré que les modèles disponibles sous Claude Gov sont conçus pour traiter des documents classifiés, fonctionner mieux dans les langues et dialectes "essentiels à la sécurité nationale" et avoir une meilleure compréhension des contextes du renseignement et de la défense.
En 2024, le Congrès américain a imposé une interdiction stricte sur l’utilisation par les collaborateurs du chatbot IA de Microsoft, Copilot. Selon le Bureau du chef de l’administration de la Chambre, l’application Microsoft Copilot a été jugée risquée pour les utilisateurs en raison de la menace de fuite de données de la Chambre vers des services cloud non approuvés. Cette décision faisait suite à des préoccupations concernant la sécurité et la confidentialité des données.
Pourtant, Anthropic a récemment annoncé qu'il lançait Claude Gov pour les clients américains du secteur de la sécurité nationale, un ensemble exclusif de modèles d'intelligence artificielle (IA) qui est déjà entre les mains de certaines agences gouvernementales. Pour rappel, Anthropic est une start-up américaine spécialisée dans l'intelligence artificielle (IA) fondée en 2021. Anthropic a développé une famille de grands modèles linguistiques (LLM) nommée Claude afin de concurrencer ChatGPT d'OpenAI et Gemini de Google.
Anthropic a déclaré que les modèles disponibles sous Claude Gov sont conçus pour traiter des documents classifiés, fonctionner mieux dans les langues et dialectes "essentiels à la sécurité nationale" et avoir une meilleure compréhension des contextes du renseignement et de la défense.
"Ce qui rend les modèles Claude Gov spéciaux, c'est qu'ils ont été conçus sur mesure pour nos clients du secteur de la sécurité nationale", a déclaré Thiyagu Ramasamy, responsable du secteur public chez Anthropic. "En comprenant leurs besoins opérationnels et en intégrant les commentaires du monde réel, nous avons créé un ensemble de modèles sûrs, fiables et performants, capables d'exceller dans les contraintes et les exigences uniques des environnements classifiés."
Le nouveau produit d'IA destiné au gouvernement d'Anthropic arrive alors que plusieurs entreprises se font concurrence pour vendre des outils technologiques émergents aux agences fédérales. L'enjeu est de remporter de nouveaux contrats et d'acquérir le prestige de travailler sur des missions gouvernementales importantes.
Au début de l'année, OpenAI a lancé ChatGPT Gov, une version spécialisée de son chatbot. L'entreprise a récemment annoncé que la Space Force et l'Air Force Research Lab étaient les premiers clients du produit. Parallèlement, des représentants du Department of Government Efficiency auraient plaidé en faveur de l'utilisation de Grok, le chatbot produit par l'entreprise xAI d'Elon Musk, au sein du Department of Homeland Security.
Les entreprises d'IA ont établi des partenariats avec des fournisseurs de services cloud déjà approuvés par le processus FedRAMP, qui fait actuellement l'objet d'une refonte majeure, afin de renforcer la présence de leur technologie au sein du gouvernement.
En novembre dernier, Palantir et Anthropic ont annoncé un partenariat visant à partager les systèmes Claude avec le gouvernement américain via Amazon Web Services. Claude était également l'un des outils approuvés pour une utilisation conditionnelle au sein du département de la Sécurité intérieure, avant que l'agence ne révoque l'accès à ces outils et n'oriente son personnel vers des outils internes, notamment DHSChat.
Voici l'annonce d'Anthropic concernant son nouveau produit d'IA destiné au gouvernement :
Modèles Claude Gov pour les clients américains chargés de la sécurité nationale
Nous présentons une série de modèles Claude Gov personnalisés, conçus exclusivement pour les clients américains chargés de la sécurité nationale. Ces modèles sont déjà utilisés par les agences au plus haut niveau de la sécurité nationale américaine, et leur accès est limité aux personnes travaillant dans des environnements classifiés.
Les modèles Claude Gov ont été conçus à partir des commentaires directs de nos clients gouvernementaux afin de répondre aux besoins opérationnels réels, et ont été soumis aux mêmes tests de sécurité rigoureux que tous nos modèles Claude. Le résultat est un ensemble de modèles Claude qui comprennent les exigences uniques de nos clients en matière de sécurité nationale tout en maintenant l'engagement indéfectible d'Anthropic envers la sécurité et le développement responsable de l'IA.
Les clients américains chargés de la sécurité nationale peuvent choisir d'utiliser nos systèmes d'IA pour un large éventail d'applications, allant de la planification stratégique et du soutien opérationnel à l'analyse du renseignement et à l'évaluation des menaces. Les modèles Claude Gov offrent des performances améliorées pour les besoins critiques du gouvernement et les tâches spécialisées. Cela comprend :
Cela s'inscrit dans le cadre de notre engagement à fournir des solutions d'IA responsables et sûres à nos clients américains chargés de la sécurité nationale, avec des modèles personnalisés conçus pour répondre aux besoins spécifiques des environnements classifiés.
Nous présentons une série de modèles Claude Gov personnalisés, conçus exclusivement pour les clients américains chargés de la sécurité nationale. Ces modèles sont déjà utilisés par les agences au plus haut niveau de la sécurité nationale américaine, et leur accès est limité aux personnes travaillant dans des environnements classifiés.
Les modèles Claude Gov ont été conçus à partir des commentaires directs de nos clients gouvernementaux afin de répondre aux besoins opérationnels réels, et ont été soumis aux mêmes tests de sécurité rigoureux que tous nos modèles Claude. Le résultat est un ensemble de modèles Claude qui comprennent les exigences uniques de nos clients en matière de sécurité nationale tout en maintenant l'engagement indéfectible d'Anthropic envers la sécurité et le développement responsable de l'IA.
Les clients américains chargés de la sécurité nationale peuvent choisir d'utiliser nos systèmes d'IA pour un large éventail d'applications, allant de la planification stratégique et du soutien opérationnel à l'analyse du renseignement et à l'évaluation des menaces. Les modèles Claude Gov offrent des performances améliorées pour les besoins critiques du gouvernement et les tâches spécialisées. Cela comprend :
- Une meilleure gestion des documents classifiés, car les modèles refusent moins souvent de traiter des informations classifiées.
- Une meilleure compréhension des documents et des informations dans le contexte du renseignement et de la défense.
- Une maîtrise accrue des langues et des dialectes essentiels aux opérations de sécurité nationale.
- Une meilleure compréhension et interprétation des données complexes en matière de cybersécurité pour l'analyse du renseignement
Cela s'inscrit dans le cadre de notre engagement à fournir des solutions d'IA responsables et sûres à nos clients américains chargés de la sécurité nationale, avec des modèles personnalisés conçus pour répondre aux besoins spécifiques des environnements classifiés.
Et vous ?


Voir aussi :



Vous avez lu gratuitement 52 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.