IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft lance un chatbot d'IA pour les espions, un modèle d'IA générative basé sur GPT-4 conçu spécifiquement pour les agences de renseignement américaines qui opère déconnecté d'internet

Le , par Stéphane le calme

8PARTAGES

6  0 
Microsoft a introduit un modèle d’IA génératif basé sur GPT-4, spécialement conçu pour les agences de renseignement des États-Unis, qui fonctionne déconnecté d’Internet. Ce développement marque la première fois que Microsoft déploie un modèle de langage majeur dans un environnement sécurisé. L'IA a été conçue pour permettre aux agences d'espionnage d'analyser des informations top secrètes sans risques de connectivité et pour permettre des conversations sécurisées avec un chatbot similaire à ChatGPT et à Microsoft Copilot. Mais il peut également induire les fonctionnaires en erreur s'il n'est pas utilisé correctement, en raison des limites inhérentes à la conception des modèles de langage de l'IA.

GPT-4 est un modèle de langage étendu (LLM) créé par OpenAI qui tente de prédire les tokens (fragments de données codées) les plus probables dans une séquence. Il peut être utilisé pour créer des codes informatiques et analyser des informations. Lorsqu'il est configuré comme un chatbot (comme ChatGPT), GPT-4 peut alimenter des assistants d'IA qui conversent à la manière d'un être humain. Microsoft dispose d'une licence d'utilisation de cette technologie dans le cadre d'un accord conclu en échange d'investissements importants dans OpenAI.

Selon le rapport de Bloomberg, le nouveau service d'IA (qui n'a pas encore de nom public) répond à l'intérêt croissant des agences de renseignement pour l'utilisation de l'IA générative dans le traitement des données classifiées, tout en atténuant les risques de violations de données ou de tentatives de piratage. ChatGPT fonctionne normalement sur des serveurs cloud fournis par Microsoft, ce qui peut entraîner des risques de fuite et d'interception de données. Dans le même ordre d'idées, la CIA a annoncé l'année dernière son intention de créer un service similaire à ChatGPT, mais cet effort de Microsoft serait un projet distinct.


Un service déjà opérationnel

William Chappell, directeur technique de Microsoft pour les missions stratégiques et la technologie, a indiqué à Bloomberg que le développement du nouveau système a nécessité 18 mois de travail pour modifier un superordinateur d'IA dans l'Iowa. Le modèle GPT-4 modifié est conçu pour lire les fichiers fournis par ses utilisateurs, mais ne peut pas accéder à l'internet ouvert. « C'est la première fois que nous disposons d'une version isolée, c'est-à-dire non connectée à l'internet, sur un réseau spécial accessible uniquement par le gouvernement américain », a déclaré Chappell à Bloomberg.

Le nouveau service a été activé jeudi et est maintenant disponible pour environ 10 000 personnes de la communauté du renseignement, prêt à être testé par les agences concernées. Selon Chappell, il « répond actuellement à des questions ». Chappell a ajouté que ce nouveau service d'IA, qui est basé sur le GPT-4 LLM d'OpenAI, peut lire des données mais ne peut pas en tirer d'enseignements.

Des limitations potentielles

L'utilisation de GPT-4 pour analyser des données importantes présente un grave inconvénient : elle peut potentiellement confabuler (inventer) des résumés inexacts, tirer des conclusions erronées ou fournir des informations inexactes à ses utilisateurs. Étant donné que les réseaux neuronaux d'IA formés ne sont pas des bases de données et qu'ils fonctionnent sur la base de probabilités statistiques, ils ne constituent pas de bonnes ressources factuelles, à moins qu'ils ne soient complétés par un accès externe à des informations provenant d'une autre source, au moyen d'une technique telle que la génération augmentée par récupération (RAG).

Compte tenu de cette limitation, il est tout à fait possible que le GPT-4 puisse désinformer ou induire en erreur les services de renseignement américains s'il n'est pas utilisé correctement. Nous ne savons pas quel contrôle sera exercé sur le système, quelles seront les limites de son utilisation, ni comment il pourra être vérifié pour s'assurer de son exactitude.

L'outil doit encore être testé et approuvé

Bien que le nouveau service d'IA espion de Microsoft soit actuellement en ligne, il devra encore être testé et approuvé par les services de renseignement américains. On ne sait pas encore combien de temps durera cette période de test. On ne sait pas non plus quel prix Microsoft compte facturer au gouvernement pour ce service d'IA espionne.

En mars, le bureau de la cybersécurité de la Chambre des représentants des États-Unis a interdit l'utilisation de l'assistant d'IA générative Copilot de Microsoft par les membres de son personnel. La Chambre des représentants a déclaré qu'il y avait un « risque pour les utilisateurs en raison de la menace de fuite de données de la Chambre vers des services en nuage non approuvés par la Chambre ».

Microsoft a annoncé en novembre 2023 son intention de lancer une version de Copilot pour le travail gouvernemental au cours de l'été 2024. Depuis, l'entreprise a seulement déclaré qu'elle prévoyait toujours de lancer ce service Copilot pour le gouvernement dans le courant de l'année 2024.


L'administration Biden et ses rapports avec l'IA

Récemment, le président Joe Biden a alloué pas moins de 3,3 milliards de dollars à l'application et au développement de l'IA dans les agences fédérales américaines et au sein du gouvernement.

Citation Envoyé par Maison Blanche
Promouvoir la responsabilité technologique et l'innovation responsable dans le domaine de l'intelligence artificielle (IA)

Faire progresser le développement et l'utilisation sûrs, sécurisés et dignes de confiance de l'IA.

En 2023, le président a publié le décret 14110, « Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence » (développement et utilisation sûrs, sécurisés et dignes de confiance de l'intelligence artificielle), afin de garantir que l'Amérique ouvre la voie en saisissant les promesses et en gérant les risques de l'intelligence artificielle. Le décret établit de nouvelles normes pour la sûreté et la sécurité de l'IA, protège la vie privée des Américains, fait progresser l'équité et les droits civils, défend les consommateurs et les travailleurs, promeut l'innovation et la concurrence, fait progresser le leadership américain dans le monde, et bien plus encore. Le budget prévoit plus de 3 milliards de dollars dans toutes les agences afin de développer, tester, acheter et intégrer de manière responsable des applications d'IA transformatrices dans l'ensemble du gouvernement fédéral et de soutenir la mise en œuvre du décret de l'administration. Le budget propose également 300 millions de dollars en financement obligatoire pour augmenter le financement des agences pour l'IA, à la fois pour faire face aux risques majeurs et pour faire progresser son utilisation pour le bien public.
Selon le Washington Times, pour recruter des informaticiens et des spécialistes des données afin d'étudier l'IA, le président Biden a demandé au Congrès d'autoriser 32 millions de dollars pour la « vague de talents en matière d'IA ». Dans le cadre de ce projet, des personnes engagées seront recrutées pour utiliser l'IA afin d'améliorer les services gouvernementaux, d'élaborer des lois et des politiques intelligentes protégeant la vie privée, la sécurité et les droits des personnes, et de faire progresser la recherche et le développement dans le domaine de l'IA afin de maintenir les États-Unis à la pointe de l'innovation en matière d'IA.

En outre, Biden a demandé 70 millions de dollars pour permettre aux agences d'embaucher des responsables de l'IA, qui superviseraient le travail des informaticiens et veilleraient à leur sécurité.

Le projet de budget prévoit également que le ministère du commerce recevra 50 millions de dollars pour créer l'AI Safety Institute, qui fournira des lignes directrices pour l'utilisation de l'IA. Ces lignes directrices consisteront notamment à séparer les informations créées par l'IA de celles créées par les humains et à élaborer des mesures de protection de la vie privée.

Le ministère de l'énergie prévoit également de tirer parti des fonds alloués à l'IA, affirmant que l'IA l'aidera dans sa lutte contre le changement climatique. L'Administration nationale de la sécurité nucléaire recevrait également 37 millions de dollars pour étudier l'utilisation abusive de l'IA en cas de dangers chimiques, biologiques ou nucléaires, et le ministère des anciens combattants recevrait 10 millions de dollars pour la recherche médicale et prothétique.

Par ailleurs, l'utilisation finale de l'IA par l'armée américaine pour diverses applications, notamment la planification des batailles dans StarCraft II, fait l'objet de nombreux travaux de recherche et de développement.

Au départ, l'utilisation de l'IA par le gouvernement suscitait beaucoup d'inquiétude et de réticence, mais elle a ensuite été considérée comme une technologie précieuse à explorer et à appliquer éventuellement pour des besoins futurs.

Sources : Bloomberg, Maison Blanche

Et vous ?

Quelles implications voyez-vous dans l’utilisation d’un chatbot IA par les agences de renseignement ?
Comment pensez-vous que l’absence de connexion Internet influence la sécurité et l’efficacité de ce chatbot IA ?
Quels avantages un chatbot IA déconnecté pourrait-il offrir par rapport à un système connecté à Internet ?
En quoi la capacité de confabulation de GPT-4 pourrait-elle affecter la fiabilité des analyses de données classifiées ?
Quelles mesures de sécurité supplémentaires devraient être prises lors de l’utilisation de l’IA dans le traitement des informations sensibles ?
Comment les agences de renseignement peuvent-elles vérifier l’exactitude des informations fournies par un chatbot IA ?
Quel rôle les humains devraient-ils jouer dans l’interprétation des données analysées par l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !