IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Pentagone étudie les utilisations militaires des grands modèles de langage (LLM)
Qui peuvent soutenir et potentiellement perturber la planification et la prise de décision militaires

Le , par Jade Emy

15PARTAGES

4  0 
Scale AI définira la voie à suivre par le Pentagone pour tester et évaluer les grands modèles de langage. L'entreprise créera un cadre complet de test et d'évaluation pour l'IA générative au sein du ministère de la défense.

Le Chief Digital and Artificial Intelligence Office (CDAO) du Pentagone a demandé à Scale AI de produire un moyen fiable de tester et d'évaluer les grands modèles de langage qui peuvent soutenir - et potentiellement perturber - la planification et la prise de décision militaires.

Selon une déclaration que la société basée à San Francisco a communiquée, les résultats de ce nouveau contrat d'un an fourniront au CDAO "un cadre permettant de déployer l'IA en toute sécurité en mesurant les performances des modèles, en offrant un retour d'information en temps réel aux combattants et en créant des ensembles d'évaluation spécialisés pour le secteur public afin de tester les modèles d'IA pour des applications de soutien militaire, telles que l'organisation des conclusions des rapports d'action après coup".

Les grands modèles de langage et le domaine général de l'IA générative comprennent des technologies émergentes qui peuvent générer (de manière convaincante mais pas toujours précise) du texte, du code logiciel, des images et d'autres médias, sur la base d'instructions données par l'homme. Ce domaine en évolution rapide est très prometteur pour le ministère de la défense, mais il pose également des défis potentiels inconnus et sérieux. L'année dernière, les dirigeants du Pentagone ont lancé la Task Force Lima au sein de la direction de la guerre algorithmique du CDAO afin d'accélérer la compréhension, l'évaluation et le déploiement de l'intelligence artificielle générative par ses composantes.

Le ministère s'appuie depuis longtemps sur des processus de test et d'évaluation (T&E) pour évaluer et garantir que ses systèmes, plateformes et technologies fonctionnent de manière sûre et fiable avant d'être entièrement mis en service. Mais les normes et les politiques de sécurité de l'IA n'ont pas encore été fixées de manière universelle, et les complexités et incertitudes associées aux grands modèles de langage rendent les essais et évaluations encore plus compliqués lorsqu'il s'agit de l'IA générative.


D'une manière générale, le T&E permet aux experts de déterminer les performances de base d'un modèle spécifique. Par exemple, pour tester et évaluer un algorithme de vision artificielle qui différencie les images de chiens et de chats de celles d'objets qui ne sont ni des chiens ni des chats, un fonctionnaire peut d'abord l'entraîner avec des millions d'images différentes de ce type d'animaux ainsi que d'objets qui ne sont ni des chiens ni des chats. Ce faisant, l'expert retiendra également un sous-ensemble diversifié de données qui pourra ensuite être présenté à l'algorithme. Il peut ensuite évaluer cet ensemble de données d'évaluation par rapport à l'ensemble de test, ou "vérité de base", et finalement déterminer les taux d'échec lorsque le modèle n'est pas en mesure de déterminer si un objet est ou n'est pas l'un des classificateurs qu'il tente d'identifier.

Les experts de Scale AI adopteront une approche similaire pour le contrôle et l'évaluation des grands modèles de langage, mais comme ils sont génératifs par nature et que la langue anglaise peut être difficile à évaluer, il n'y a pas le même niveau de "vérité de terrain" pour ces systèmes complexes. Par exemple, si l'on demande à un LLM de fournir cinq réponses différentes, il se peut que les faits soient généralement exacts dans les cinq cas, mais que des structures de phrases différentes modifient le sens de chaque réponse.

Ainsi, une partie des efforts de l'entreprise pour développer le cadre, les méthodes et la technologie que le CDAO peut utiliser pour tester et évaluer de grands modèles de langage consistera à créer des "ensembles de données d'attente" - où ils incluent des initiés de la DOD pour demander des paires de réponses et les évaluer par couches d'examen, et s'assurer que chaque réponse est aussi bonne que celle que l'on attendrait d'un humain dans l'armée. L'ensemble du processus sera itératif par nature. Une fois que les ensembles de données relatifs à la connaissance du monde, à la véracité et à d'autres sujets auront été constitués et affinés, les experts pourront évaluer les grands modèles de langage existants par rapport à ces ensembles.

À terme, lorsqu'ils disposeront de ces ensembles de données, les experts seront en mesure de procéder à des évaluations et d'établir des fiches de modèle - ou de courts documents fournissant des détails sur le contexte d'utilisation optimale de divers modèles d'apprentissage automatique et des informations permettant de mesurer leurs performances. Les responsables prévoient d'automatiser autant que possible ce développement, de sorte qu'au fur et à mesure que de nouveaux modèles arriveront, il sera possible d'avoir une compréhension de base de leurs performances, des domaines dans lesquels ils seront les plus performants et de ceux dans lesquels ils commenceront probablement à échouer.

Plus loin dans le processus, l'objectif ultime est que les modèles envoient essentiellement des signaux aux responsables des CDAO qui les utilisent, s'ils commencent à s'écarter des domaines pour lesquels ils ont été testés.

"Ce travail permettra au ministère de la défense de faire évoluer ses politiques d'essais et d'évaluation pour prendre en compte l'IA générative en mesurant et en évaluant les données quantitatives par le biais de l'analyse comparative et en évaluant le retour d'information qualitatif de la part des utilisateurs. Les paramètres d'évaluation aideront à identifier les modèles d'IA générative qui sont prêts à soutenir les applications militaires avec des résultats précis et pertinents en utilisant la terminologie et les bases de connaissances du ministère de la défense. Le processus rigoureux de T&E vise à améliorer la robustesse et la résilience des systèmes d'IA dans des environnements classifiés, permettant l'adoption de la technologie LLM dans des environnements sécurisés", indique la déclaration de Scale AI.

Outre le CDAO, l'entreprise a également établi des partenariats avec Meta, Microsoft, l'armée américaine, la Defense Innovation Unit, OpenAI, General Motors, Toyota Research Institute, Nvidia et d'autres. "Tester et évaluer l'IA générative aidera le DoD à comprendre les forces et les limites de la technologie, afin qu'elle puisse être déployée de manière responsable. Scale est honoré de s'associer au DoD sur ce cadre", a déclaré Alexandr Wang, fondateur et PDG de Scale AI, dans le communiqué.

Source : Scale AI

Et vous ?

Pensez-vous que cet accord est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine, avec des indications selon lesquelles les États-Unis développeront des armes autonomes létales

Intelligence artificielle et armement : les présidents Joe Biden et Xi Jinping s'engagent à interdire l'IA dans les armes autonomes, telles que les drones et le contrôle des ogives nucléaires

Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/03/2024 à 10:59
Des experts en intelligence artificielle, tant occidentaux que chinois, ont conjointement établi des « lignes rouges » pour circonscrire les dangers potentiels inhérents à l'IA, définissant ainsi les territoires à ne pas franchir pour éviter des risques existentiels.

Et ces mêmes experts se feront un plaisir de développer les armes équipées d'IA à la demande de leur état respectif sans se préoccuper le moins du monde de la moindre "ligne rouge"!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/03/2024 à 20:53
Citation Envoyé par Bruno Voir le message
Quel est votre avis sur le sujet ?
Il ne va pas y avoir une nouvelle guerre froide, il va y avoir une guerre tout court.
Que ce soit légal ou illégal, les USA et la Chine développeront toutes les solutions technologique capable de leur donner un avantage.

Ils disent que la ligne rouge c'est notamment :
- la création d'armes biologiques
- le lancement de cyberattaques
Je trouve ça bizarre comme exemples.

En temps de guerre il n'y a pas de règle. (le gagnant ne sera pas sanctionné)
Des pays vont concevoir des armes de destruction massive et vont violer les conventions sur les armes biologiques ou chimique.

Ils sont marrant quand ils parlent d'efforts déployés pendant la guerre froide pour éviter les guerres nucléaires, aujourd'hui plein de pays ont des armes nucléaires et ne devraient pas en avoir.
Bon après c'est une défense (mutually assured destruction), tu m'envoies une bombe, je t'envoie une bombe, on est tous mort, donc tu ne vas pas m'envoyer de bombe et je ne vais pas t'envoyer de bombe.

Je trouve que c'est un peu naïf de croire que des superpuissances comme les USA vont se mettre à respecter les règles.
Il y a quand même beaucoup à gagner, beaucoup à perdre.
Donc là faut faire comme les champions et se doper, "les autres le font, donc je dois le faire".

=======
L'ambiance va ressembler à ça :
L'arme biologique, une vieille histoire
En 1943, l'armée américaine entame la construction d'un complexe de recherche et développement d'armes biologiques à Camp Detrick, dans le Maryland (rebaptisé depuis Fort Detrick). Le programme est rapidement renforcé pour contrer les recherches de l'Allemagne nazie et du Japon. Les travaux américains portent sur la mise au point de bombes à fragmentation capables de disséminer des projectiles contenant du charbon. D'autres travaux portent sur la toxine du botulisme. En 1944, les responsables du programme d'armes biologiques réclament des moyens pour fabriquer un million de bombes au charbon par mois.

Moustiques. A la fin de la guerre, les Etats-Unis mettent leur programme en veilleuse. En 1946, le ministère de la Guerre reconnaît publiquement l'existence de son programme de recherche sur les armes biologiques. Deux ans plus tard, un rapport souligne la vulnérabilité du pays, notamment en cas d'attaque subversive contre les réseaux d'eau et les métros. En Chine, 1000 à 3000 prisonniers des Japonais seraient décédés pendant la guerre lors d'expériences d'inhalation du charbon dans l'unité 731 de l'Armée impériale, chargée de la guerre bactériologique. Après 1945, les Etats-Unis accordent l'impunité au général japonais Ishii qui dirigeait l'unité 731 et à quelques-uns de ses chercheurs et récupèrent en échange leur savoir-faire.

Face à la menace soviétique, les Etats-Unis décident en 1950 de construire une usine de fabrication d'armes biologiques. La production démarre en décembre 1953. Sept agents biologiques seront fabriqués entre 1954 et 1967, dont le bacille du charbon.
À la fin de la guerre, les USA n'ont pas dit "les scientifiques Nazis doivent être condamné", ils ont dit "il faut qu'on embauche un maximum de scientifiques Nazis".
Opération Paperclip
L’opération Paperclip (originellement appelée « Opération Overcast ») fut menée à la fin de la Seconde Guerre mondiale par l'état-major de l'armée des États-Unis afin d'exfiltrer et de recruter près de 1 500 scientifiques allemands issus du complexe militaro-industriel de l'Allemagne nazie pour lutter contre l'URSS et récupérer les armes secrètes du Troisième Reich.
======
Pour la blague j'ai envie de dire qu'il est possible que le problème d'électricité du porte-conteneurs qui a détruit le pont Francis Scott Key de Baltimore soit mis sur le dos d'une cyberattaque chinoise.
3  4