IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'armée US fait le premier achat confirmé d'un produit OpenAI pour les forces de combat pour « l'analyse unifiée du traitement des données »
Un objectif qui montre une ignorance des hallucinations de l'IA

Le , par Stéphane le calme

15PARTAGES

5  0 
L'armée américaine a récemment franchi une étape majeure en faisant sa première acquisition confirmée de technologies OpenAI pour ses forces de combat. Le 30 septembre 2024, l'United States Africa Command (AFRICOM) a reçu l'approbation pour acheter des services de cloud computing directement auprès de Microsoft, via le contrat Joint Warfighting Cloud Capability d'une valeur de 9 milliards de dollars. Ce contrat inclut des outils fournis par OpenAI, tels que le modèle de langage GPT-4 et DALL-E, l'outil de génération d'images.

Selon AFRICOM, l'accès aux technologies OpenAI est essentiel pour accomplir ses missions dans un environnement dynamique et en constante évolution. Les services de cloud computing de Microsoft, intégrant les outils d'OpenAI, sont considérés comme uniques et indispensables pour soutenir les charges de travail avancées en matière d'IA et d'apprentissage automatique (ML), y compris la recherche, le traitement du langage naturel, et l'analyse unifiée des données.


Le Commandement des États-Unis pour l'Afrique est un commandement unifié pour l'Afrique créé par le département de la Défense des États-Unis en 2007 et entré en fonction en 2008. Il coordonne toutes les activités militaires et sécuritaires des États-Unis sur ce continent.

Dans un document daté du 30 septembre, l'AFRICOM expose les raisons pour lesquelles elle s'offre les services de cloud computing de Microsoft dans le cadre de son contrat de 9 milliards de dollars portant sur la capacité de cloud de combat interarmées, plutôt que de chercher un autre fournisseur sur le marché libre. « L'USAFRICOM opère dans un environnement dynamique et évolutif où l'informatique joue un rôle essentiel dans la réalisation des objectifs de la mission », peut-on lire dans le document, y compris « sa mission vitale de soutien à nos partenaires africains [et] les exercices conjoints de l'USAFRICOM ».

Le document, intitulé Controlled Unclassified Information, porte la mention FEDCON, ce qui indique qu'il n'est pas destiné à être distribué en dehors du gouvernement ou des contractants. Il montre que la demande de l'AFRICOM a été approuvée par l'Agence des systèmes d'information de la défense. Bien que le prix de l'achat soit expurgé, le document d'approbation indique que sa valeur est inférieure à 15 millions de dollars.

Comme le reste du département de la défense, l'AFRICOM (qui supervise les opérations du Pentagone en Afrique, y compris la coopération militaire locale avec les alliés des États-Unis dans cette région) a un appétit croissant pour le cloud computing. Le ministère de la défense achète déjà un accès aux services cloud de Microsoft dans le cadre du projet Joint Warfighting Cloud Capability. Ce nouveau document reflète le souhait de l'AFRICOM de contourner la paperasserie contractuelle et d'acheter immédiatement des services de cloud computing Microsoft Azure, y compris le logiciel OpenAI, sans envisager d'autres fournisseurs. L'AFRICOM déclare que « la capacité à prendre en charge des charges de travail avancées en matière d'IA/ML est cruciale. Cela inclut des services de recherche, de traitement du langage naturel, [d'apprentissage automatique] et d'analyse unifiée pour le traitement des données ». Et selon l'AFRICOM, la plateforme cloud Azure de Microsoft, qui comprend une suite d'outils fournis par OpenAI, est le seul fournisseur cloud capable de répondre à ses besoins.


Le premier achat confirmé des produits OpenAI par un Commandement américain de combat dont la mission est de tuer

Microsoft a commencé à vendre le modèle de grand langage GPT-4 d'OpenAI aux clients du secteur de la défense en juin 2023.

Au début de l'année, après la révélation qu'OpenAI avait changé d'avis sur une potentielle collaboration avec l'armée, l'entreprise a annoncé une collaboration en matière de cybersécurité avec la DARPA en janvier et a déclaré que ses outils seraient utilisés pour une initiative non spécifiée de prévention du suicide chez les vétérans.

En avril, Microsoft a proposé au Pentagone d'utiliser DALL-E, l'outil de génération d'images d'OpenAI, pour les logiciels de commandement et de contrôle. Mais le document de l'AFRICOM marque le premier achat confirmé des produits d'OpenAI par un Commandement américain de combat dont la mission est de tuer.

La mission déclarée de l'entreprise OpenAI reste de « veiller à ce que l'intelligence artificielle générale profite à l'ensemble de l'humanité ».


Le document indique que les « outils OpenAI » font partie des « caractéristiques uniques » offertes par Microsoft « essentielles pour garantir que les services sur le cloud fournis s'alignent sur la mission et les besoins opérationnels de l'USAFRICOM. Sans l'accès à la suite intégrée d'outils et de services d'IA de Microsoft, l'USAFRICOM serait confronté à des difficultés considérables pour analyser et extraire des informations exploitables à partir de vastes quantités de données. ...] Cela pourrait entraîner des retards dans la prise de décision, compromettre la connaissance de la situation et réduire l'agilité de la réponse aux menaces dynamiques et évolutives sur l'ensemble du continent africain. »

Les agences de défense et de renseignement du monde entier ont exprimé un vif intérêt pour l'utilisation de grands modèles de langage afin de passer au crible des trésors de renseignements, ou de transcrire et d'analyser rapidement les données audio des interrogatoires.

Microsoft a investi 10 milliards de dollars dans OpenAI l'année dernière et exerce désormais une grande influence sur l'entreprise, en plus de revendre sa technologie. Cependant, plusieurs médias ont porté plainte contre Microsoft et OpenAI pour avoir utilisé gratuitement, sans autorisation ni crédit, du matériel protégé par le droit d'auteur.

Une méconnaissance de l'armée pour les hallucinations de l'IA

« Il est extrêmement alarmant de constater qu'ils sont explicites dans l'utilisation des outils OpenAI pour "l'analyse unifiée du traitement des données" afin de s'aligner sur les objectifs de la mission de l'USAFRICOM », a déclaré Heidy Khlaaf, scientifique en chef de l'IA à l'AI Now Institute, qui a déjà mené des évaluations de sécurité pour OpenAI. « En particulier en affirmant qu'ils pensent que ces outils améliorent l'efficacité, la précision et l'évolutivité, alors qu'il a été démontré que ces outils sont très imprécis et qu'ils fabriquent constamment des résultats. Ces affirmations témoignent d'une méconnaissance préoccupante, de la part de ceux qui achètent ces technologies, des risques élevés que ces outils posent dans les environnements critiques. »

Il faut dire que ce n'est pas le propre de l'armée. Une récente étude menée par une équipe de chercheurs en informatique et en santé a révélé une vérité troublante: certains outils d'IA utilisés dans des hôpitaux ont commencé à générer des informations erronées, voire complètement fictives. Par exemple, certaines IA ont attribué de faux symptômes à des patients ou suggéré des diagnostics basés sur des données inexistantes.

Si OpenAI a vanté son outil de transcription Whisper, basé sur l'intelligence artificielle, comme ayant une robustesse et une précision proches du « niveau humain », des chercheurs ont révélé que Whisper, intégré à ChatGPT, a tendance à inventer des morceaux de texte, voire des phrases entières.

Ce qui est encore plus inquiétant, selon eux, c'est que les centres médicaux se précipitent pour utiliser des outils basés sur Whisper afin de transcrire les consultations des patients avec les médecins, malgré les avertissements d'OpenAI selon lesquels l'outil ne devrait pas être utilisé dans des « domaines à haut risque ».

La prévalence de ces hallucinations a conduit des experts, des défenseurs et d'anciens employés de l'OpenAI à demander au gouvernement fédéral d'envisager une réglementation de l'IA. Selon eux, OpenAI doit au moins remédier à ce problème.

« Il semble possible de résoudre ce problème si l'entreprise est prête à en faire une priorité », a déclaré William Saunders, un ingénieur de recherche basé à San Francisco qui a quitté OpenAI en février en raison de ses inquiétudes quant à la direction de l'entreprise. « C'est problématique si vous mettez cela sur le marché et que les gens sont trop confiants sur ce qu'il peut faire et l'intègrent dans tous ces autres systèmes ».

OpenAI a le vent en poupe auprès de la classe politique

Depuis qu'OpenAI a discrètement supprimé la partie de ses conditions d'utilisation qui interdisait les travaux militaires en janvier, l'entreprise s'est progressivement attiré les faveurs de l'establishment de la sécurité nationale des États-Unis, qui est désireux d' intégrer des outils impressionnants mais souvent inexacts tels que ChatGPT. En juin, OpenAI a intégré à son conseil d'administration l'ancien directeur de l'Agence nationale de sécurité nommé par Trump, Paul Nakasone ; l'actuelle responsable des partenariats de sécurité nationale de l'entreprise est Katrina Mulligan, une ancienne du Pentagone qui a travaillé auparavant dans les « opérations spéciales et la guerre irrégulière », d'après son profil LinkedIn.

Jeudi, suite à une directive de la Maison Blanche ordonnant au Pentagone d'accélérer l'adoption d'outils tels que ceux fabriqués par OpenAI, l'entreprise a publié un article décrivant son « approche de l'IA et de la sécurité nationale ». Selon l'article, « les valeurs qui guident notre travail sur la sécurité nationale » comprennent les « valeurs démocratiques », les « droits de l'homme » et la « responsabilité », expliquant que « nous pensons que toutes les applications de l'IA, en particulier celles qui impliquent le gouvernement et la sécurité nationale, devraient être soumises à une surveillance, à des directives d'utilisation claires et à des normes éthiques ». Le langage d'OpenAI reflète clairement l'ordre de la Maison Blanche, qui interdit aux entités de sécurité et de renseignement d'utiliser l'intelligence artificielle d'une manière qui « ne s'aligne pas sur les valeurs démocratiques », a rapporté le Washington Post.

Sources : document de l'AFRICOM, Maison Blanche, OpenAI (1, 2)

Et vous ?

Quels sont les avantages et les inconvénients de l'intégration de l'IA dans les opérations militaires ?
Comment pensez-vous que l'utilisation de l'IA pourrait changer la dynamique des relations internationales ?
Quels mécanismes de contrôle et de responsabilité devraient être mis en place pour l'utilisation de l'IA dans les forces armées ?
Pensez-vous que les avantages de l'IA dans le domaine militaire l'emportent sur les risques ? Pourquoi ou pourquoi pas ?
Comment l'IA pourrait-elle améliorer ou compliquer les opérations conjointes avec les partenaires internationaux ?

Voir aussi :

OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur et estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement »

Une erreur dans cette actualité ? Signalez-nous-la !