GPT-4 est un modèle de langage étendu (LLM) créé par OpenAI qui tente de prédire les tokens (fragments de données codées) les plus probables dans une séquence. Il peut être utilisé pour créer des codes informatiques et analyser des informations. Lorsqu'il est configuré comme un chatbot (comme ChatGPT), GPT-4 peut alimenter des assistants d'IA qui conversent à la manière d'un être humain. Microsoft dispose d'une licence d'utilisation de cette technologie dans le cadre d'un accord conclu en échange d'investissements importants dans OpenAI.
Selon le rapport de Bloomberg, le nouveau service d'IA (qui n'a pas encore de nom public) répond à l'intérêt croissant des agences de renseignement pour l'utilisation de l'IA générative dans le traitement des données classifiées, tout en atténuant les risques de violations de données ou de tentatives de piratage. ChatGPT fonctionne normalement sur des serveurs cloud fournis par Microsoft, ce qui peut entraîner des risques de fuite et d'interception de données. Dans le même ordre d'idées, la CIA a annoncé l'année dernière son intention de créer un service similaire à ChatGPT, mais cet effort de Microsoft serait un projet distinct.
Un service déjà opérationnel
William Chappell, directeur technique de Microsoft pour les missions stratégiques et la technologie, a indiqué à Bloomberg que le développement du nouveau système a nécessité 18 mois de travail pour modifier un superordinateur d'IA dans l'Iowa. Le modèle GPT-4 modifié est conçu pour lire les fichiers fournis par ses utilisateurs, mais ne peut pas accéder à l'internet ouvert. « C'est la première fois que nous disposons d'une version isolée, c'est-à-dire non connectée à l'internet, sur un réseau spécial accessible uniquement par le gouvernement américain », a déclaré Chappell à Bloomberg.
Le nouveau service a été activé jeudi et est maintenant disponible pour environ 10 000 personnes de la communauté du renseignement, prêt à être testé par les agences concernées. Selon Chappell, il « répond actuellement à des questions ». Chappell a ajouté que ce nouveau service d'IA, qui est basé sur le GPT-4 LLM d'OpenAI, peut lire des données mais ne peut pas en tirer d'enseignements.
Des limitations potentielles
L'utilisation de GPT-4 pour analyser des données importantes présente un grave inconvénient : elle peut potentiellement confabuler (inventer) des résumés inexacts, tirer des conclusions erronées ou fournir des informations inexactes à ses utilisateurs. Étant donné que les réseaux neuronaux d'IA formés ne sont pas des bases de données et qu'ils fonctionnent sur la base de probabilités statistiques, ils ne constituent pas de bonnes ressources factuelles, à moins qu'ils ne soient complétés par un accès externe à des informations provenant d'une autre source, au moyen d'une technique telle que la génération augmentée par récupération (RAG).
Compte tenu de cette limitation, il est tout à fait possible que le GPT-4 puisse désinformer ou induire en erreur les services de renseignement américains s'il n'est pas utilisé correctement. Nous ne savons pas quel contrôle sera exercé sur le système, quelles seront les limites de son utilisation, ni comment il pourra être vérifié pour s'assurer de son exactitude.
L'outil doit encore être testé et approuvé
Bien que le nouveau service d'IA espion de Microsoft soit actuellement en ligne, il devra encore être testé et approuvé par les services de renseignement américains. On ne sait pas encore combien de temps durera cette période de test. On ne sait pas non plus quel prix Microsoft compte facturer au gouvernement pour ce service d'IA espionne.
En mars, le bureau de la cybersécurité de la Chambre des représentants des États-Unis a interdit l'utilisation de l'assistant d'IA générative Copilot de Microsoft par les membres de son personnel. La Chambre des représentants a déclaré qu'il y avait un « risque pour les utilisateurs en raison de la menace de fuite de données de la Chambre vers des services en nuage non approuvés par la Chambre ».
Microsoft a annoncé en novembre 2023 son intention de lancer une version de Copilot pour le travail gouvernemental au cours de l'été 2024. Depuis, l'entreprise a seulement déclaré qu'elle prévoyait toujours de lancer ce service Copilot pour le gouvernement dans le courant de l'année 2024.
L'administration Biden et ses rapports avec l'IA
Récemment, le président Joe Biden a alloué pas moins de 3,3 milliards de dollars à l'application et au développement de l'IA dans les agences fédérales américaines et au sein du gouvernement.
Envoyé par Maison Blanche
En outre, Biden a demandé 70 millions de dollars pour permettre aux agences d'embaucher des responsables de l'IA, qui superviseraient le travail des informaticiens et veilleraient à leur sécurité.
Le projet de budget prévoit également que le ministère du commerce recevra 50 millions de dollars pour créer l'AI Safety Institute, qui fournira des lignes directrices pour l'utilisation de l'IA. Ces lignes directrices consisteront notamment à séparer les informations créées par l'IA de celles créées par les humains et à élaborer des mesures de protection de la vie privée.
Le ministère de l'énergie prévoit également de tirer parti des fonds alloués à l'IA, affirmant que l'IA l'aidera dans sa lutte contre le changement climatique. L'Administration nationale de la sécurité nucléaire recevrait également 37 millions de dollars pour étudier l'utilisation abusive de l'IA en cas de dangers chimiques, biologiques ou nucléaires, et le ministère des anciens combattants recevrait 10 millions de dollars pour la recherche médicale et prothétique.
Par ailleurs, l'utilisation finale de l'IA par l'armée américaine pour diverses applications, notamment la planification des batailles dans StarCraft II, fait l'objet de nombreux travaux de recherche et de développement.
Au départ, l'utilisation de l'IA par le gouvernement suscitait beaucoup d'inquiétude et de réticence, mais elle a ensuite été considérée comme une technologie précieuse à explorer et à appliquer éventuellement pour des besoins futurs.
Sources : Bloomberg, Maison Blanche
Et vous ?
Quelles implications voyez-vous dans l’utilisation d’un chatbot IA par les agences de renseignement ?
Comment pensez-vous que l’absence de connexion Internet influence la sécurité et l’efficacité de ce chatbot IA ?
Quels avantages un chatbot IA déconnecté pourrait-il offrir par rapport à un système connecté à Internet ?
En quoi la capacité de confabulation de GPT-4 pourrait-elle affecter la fiabilité des analyses de données classifiées ?
Quelles mesures de sécurité supplémentaires devraient être prises lors de l’utilisation de l’IA dans le traitement des informations sensibles ?
Comment les agences de renseignement peuvent-elles vérifier l’exactitude des informations fournies par un chatbot IA ?
Quel rôle les humains devraient-ils jouer dans l’interprétation des données analysées par l’IA ?