IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic s'associe à Palantir et AWS pour vendre l'IA aux agences de renseignement et de défense américaines.
Meta, OpenAI et d'autres fournisseurs d'IA multiplient les accords avec l'armée

Le , par Stéphane le calme

37PARTAGES

7  0 
L’entreprise de recherche en intelligence artificielle (IA) Anthropic a récemment annoncé une collaboration stratégique avec deux géants de la technologie : Palantir et Amazon Web Services (AWS). Cette alliance vise à offrir des solutions d’intelligence artificielle avancées aux clients du secteur de la défense, un marché en pleine expansion qui réclame de plus en plus de technologies sophistiquées pour répondre aux défis de sécurité et de logistique.

Anthropic a annoncé jeudi qu' elle s'associait à la société d'analyse de données Palantir et à Amazon Web Services (AWS) pour permettre aux agences de renseignement et de défense américaines d'accéder à la famille de modèles d'IA Claude d'Anthropic.

Cette nouvelle intervient alors qu'un nombre croissant de fournisseurs d'IA cherchent à conclure des accords avec des clients de la défense américaine pour des raisons stratégiques et fiscales. Meta a récemment révélé qu 'elle mettait ses modèles Llama à la disposition de ses partenaires de la défense, tandis qu'OpenAI cherche à établir une relation plus étroite avec le ministère américain de la défense.

Kate Earle Jensen, responsable des ventes chez Anthropic, a déclaré que la collaboration de l'entreprise avec Palantir et AWS permettra d'« opérationnaliser l'utilisation de Claude » au sein de la plateforme de Palantir en tirant parti de l'hébergement AWS. Claude est devenu disponible sur la plateforme de Palantir au début du mois et peut maintenant être utilisé dans l'environnement accrédité de Palantir pour la défense, Palantir Impact Level 6 (IL6).

Le niveau IL6 du Département de la Défense est réservé aux systèmes contenant des données jugées critiques pour la sécurité nationale et nécessitant une « protection maximale » contre les accès non autorisés et la falsification. Les informations contenues dans les systèmes IL6 peuvent atteindre le niveau « secret », soit un cran en dessous du niveau « top secret ».

« Nous sommes fiers d'être à l'avant-garde de l'apport de solutions d'IA responsables aux environnements classifiés des États-Unis, améliorant les capacités analytiques et l'efficacité opérationnelle dans les opérations gouvernementales vitales », a déclaré Jensen. « L'accès à Claude au sein de Palantir sur AWS dotera les organisations de défense et de renseignement américaines d'outils d'IA puissants capables de traiter et d'analyser rapidement de vastes quantités de données complexes. Cela améliorera considérablement l'analyse du renseignement et permettra aux responsables de prendre des décisions, de rationaliser les tâches à forte intensité de ressources et de stimuler l'efficacité opérationnelle dans tous les départements. »

Cet été, Anthropic a apporté certains modèles Claude à GovCloud d'AWS, signalant ainsi son ambition d'élargir sa clientèle du secteur public. GovCloud est le service d'AWS conçu pour les charges de travail du gouvernement américain.

Anthropic s'est positionné comme un fournisseur plus soucieux de la sécurité qu'OpenAI. Mais les conditions d'utilisation de l'entreprise autorisent l'utilisation de ses produits pour des tâches telles que « l'analyse de renseignements étrangers légalement autorisée », « l'identification de campagnes secrètes d'influence ou de sabotage » et « l'avertissement à l'avance d'activités militaires potentielles ».

Pourquoi cette collaboration ?

Les trois entreprises apportent chacune un ensemble de compétences et d'expertises complémentaires qui renforcent leur position sur le marché de la défense. Anthropic, entreprise spécialisée dans la recherche et le développement en intelligence artificielle, est connue pour ses modèles de langage avancés et son approche en matière d'IA de type « intelligence artificielle alignée », c’est-à-dire des systèmes conçus pour être transparents et sûrs. Cette orientation s’aligne parfaitement avec les exigences du secteur de la défense, où la sécurité, l’interprétabilité et la fiabilité des systèmes sont essentielles.

« Nous adapterons les restrictions d'utilisation à la mission et aux autorités légales d'une entité gouvernementale, en fonction de facteurs tels que la volonté de l'agence de s'engager dans un dialogue continu », indique Anthropic dans ses conditions. Ces conditions ne s'appliquent pas aux systèmes d'IA qui, selon Anthropic, « augmentent considérablement le risque d'une mauvaise utilisation catastrophique », présentent des « capacités autonomes de bas niveau » ou peuvent être utilisés pour des campagnes de désinformation, la conception ou le déploiement d'armes, la censure, la surveillance intérieure et les opérations cybernétiques malveillantes.

Palantir, de son côté, possède une forte présence dans le secteur de la défense avec ses logiciels d'analyse de données utilisés par des agences gouvernementales dans le monde entier. Sa plateforme Gotham est largement reconnue pour sa capacité à traiter des volumes massifs de données et fournir des informations cruciales en temps réel. En s’associant à Anthropic, Palantir pourra utiliser les capacités d’intelligence artificielle pour optimiser ses solutions de traitement de données et renforcer la valeur des informations qu’il délivre à ses clients de la défense.

Enfin, AWS, leader du cloud computing, apporte son infrastructure de cloud évolutive et sécurisée, nécessaire pour soutenir les systèmes IA avancés qu’Anthropic et Palantir souhaitent déployer. AWS offre des services cloud avec des normes de sécurité élevées, ce qui est fondamental pour héberger des applications sensibles, comme celles destinées aux clients de la défense.


Quelles applications pour le secteur de la défense ?

Les capacités d’intelligence artificielle d’Anthropic combinées aux solutions d’analyse de Palantir et aux services cloud d’AWS ouvrent des perspectives intéressantes pour le secteur de la défense. Parmi les applications potentielles, on peut envisager :
  • Analyse de données de renseignement : L’IA peut analyser de grandes quantités de données issues de sources diverses (images satellites, rapports d’observations, données sur le terrain) pour identifier des menaces potentielles, prédire des comportements et anticiper des risques.
  • Assistance à la prise de décision : Des outils d’IA peuvent fournir des recommandations aux commandants et aux analystes militaires, en prenant en compte divers scénarios, pour les aider à prendre des décisions éclairées en temps réel.
  • Automatisation des opérations : Dans les opérations de logistique ou de surveillance, l’IA peut automatiser certains processus, réduire le besoin d’interventions humaines dans les tâches répétitives ou dangereuses et optimiser les ressources.
  • Sécurité et cybersécurité : L'IA permet de détecter les attaques ou comportements anormaux, renforçant ainsi la protection des réseaux et des données sensibles des agences de défense.

Les agences gouvernementales sont certainement intéressées par l'IA. Une analyse réalisée en mars 2024 par le Brookings Institute a révélé une augmentation de 1 200 % des contrats gouvernementaux liés à l'IA. Cependant, certaines branches, comme l'armée américaine, ont été lentes à adopter la technologie et restent sceptiques quant à son retour sur investissement.

Anthropic, qui s'est récemment implantée en Europe, serait en train de négocier un nouveau tour de table pour une valorisation pouvant aller jusqu'à 40 milliards de dollars. La société a levé environ 7,6 milliards de dollars à ce jour, y compris les engagements à terme. Amazon est de loin son principal investisseur.

Analyse critique de la collaboration Anthropic, Palantir et AWS

L'alliance entre Anthropic, Palantir et AWS pour fournir des solutions d’intelligence artificielle au secteur de la défense soulève des questions cruciales en matière de sécurité et de transparence. Cette collaboration, bien que prometteuse sur le plan technologique, met en évidence certains risques et enjeux qui méritent une analyse approfondie.

Un risque de dérive technologique

L’intégration de l’intelligence artificielle dans les opérations militaires représente un potentiel de transformation majeur, mais aussi un risque de dérive. Avec l’IA, le secteur de la défense dispose de nouvelles capacités pour automatiser les décisions, analyser des quantités massives de données et même anticiper des menaces. Cependant, ces applications posent la question de la responsabilité en cas de décisions automatisées aux conséquences graves. L'usage de l’IA pour prendre des décisions critiques, voire potentiellement létales, fait craindre une perte de contrôle humain et le risque que les systèmes agissent de manière imprévue ou non alignée avec les intentions initiales.

Bien qu'Anthropic soit connue pour son engagement envers une IA « alignée », l'alignement des objectifs de l'IA avec les valeurs humaines n'est pas une garantie contre les dérives. Les erreurs dans les algorithmes d'IA, la mauvaise interprétation des données ou des biais intégrés dans les modèles peuvent entraîner des actions inattendues.

Une concentration de pouvoir et des risques de surveillance de masse

Le partenariat entre ces entreprises accroît aussi leur pouvoir en matière de collecte et d’analyse de données. Palantir, en particulier, est déjà critiqué pour ses pratiques de surveillance et ses liens étroits avec les agences gouvernementales. En associant ses capacités d’analyse de données aux modèles d’IA d’Anthropic, cette alliance pourrait renforcer la surveillance de masse au nom de la sécurité nationale. Cette concentration de technologies dans les mains de quelques entreprises privées, dont certaines ont des liens privilégiés avec les gouvernements, soulève des questions importantes sur la protection de la vie privée et les libertés individuelles.

En plus, AWS, avec son infrastructure de cloud, assure un hébergement sécurisé mais centralisé pour ces systèmes. Une infrastructure de cloud centralisée pourrait poser des risques en cas de cyberattaque ou de piratage, surtout si les systèmes de défense sont en grande partie dépendants de serveurs commerciaux, et non d'infrastructures protégées directement par des agences gouvernementales.

Des défis de l’IA dans le secteur militaire

Enfin, le déploiement de l’IA dans le secteur militaire ouvre un débat plus large. La question de l’autonomie des systèmes dans les zones de conflit est extrêmement sensible, surtout lorsqu'il s'agit de systèmes capables de prendre des décisions sur des vies humaines. Si les applications de l'IA peuvent renforcer les capacités de défense, il est crucial que des réglementations strictes et des mécanismes de surveillance soient instaurés pour s'assurer que ces technologies ne violent pas les droits humains ni ne mettent en péril la sécurité des citoyens.

Source : annonce d'Anthropic, les trois niveaux d'habilitation de sécurité

Et vous ?

Comment assurer que les décisions prises par des systèmes d'IA dans le domaine de la défense demeurent sous le contrôle humain ? Quels mécanismes de surveillance pourrait-on mettre en place pour éviter des dérives ?

L’IA d’Anthropic est conçue pour être « alignée », mais comment garantir que cet alignement soit respecté en contexte militaire, où les pressions et les enjeux peuvent altérer les priorités initiales ?

Avec la collecte et l’analyse massives de données, cette alliance risque-t-elle de renforcer les outils de surveillance de masse, au détriment des libertés individuelles ? Quel cadre législatif pourrait prévenir de tels abus ?

Compte tenu de la dépendance aux infrastructures de cloud d'AWS, cette centralisation des données et des opérations militaires dans un cloud privé n'augmente-t-elle pas les risques en matière de cybersécurité ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 12/11/2024 à 11:34
1995: Les robots tueurs arrivent méfiez-vous.
2015: Les forces de police francaises sont accusées d'avoir eu recours à des logiciels de reconnaissance faciale lors des manifestations.
2024: Est-ce que l'IA peut me donner des conseils pour cuire mon oeuf ? Est-ce que les robots militaires contrôlés par IA pourront nous laisser décider de quel côté nous pourrons être exécutés ?
0  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 13/11/2024 à 7:39
maintenant je comprend mieux qu'anthropic s'inquiète du bien être de ses IA mais si j'étais eux je me tracasserais dans un premier temps de leurs employés.
0  0