IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft lance un chatbot d'IA pour les espions, un modèle d'IA générative basé sur GPT-4 conçu spécifiquement pour les agences de renseignement américaines qui opère déconnecté d'internet

Le , par Stéphane le calme

13PARTAGES

6  0 
Microsoft a introduit un modèle d’IA génératif basé sur GPT-4, spécialement conçu pour les agences de renseignement des États-Unis, qui fonctionne déconnecté d’Internet. Ce développement marque la première fois que Microsoft déploie un modèle de langage majeur dans un environnement sécurisé. L'IA a été conçue pour permettre aux agences d'espionnage d'analyser des informations top secrètes sans risques de connectivité et pour permettre des conversations sécurisées avec un chatbot similaire à ChatGPT et à Microsoft Copilot. Mais il peut également induire les fonctionnaires en erreur s'il n'est pas utilisé correctement, en raison des limites inhérentes à la conception des modèles de langage de l'IA.

GPT-4 est un modèle de langage étendu (LLM) créé par OpenAI qui tente de prédire les tokens (fragments de données codées) les plus probables dans une séquence. Il peut être utilisé pour créer des codes informatiques et analyser des informations. Lorsqu'il est configuré comme un chatbot (comme ChatGPT), GPT-4 peut alimenter des assistants d'IA qui conversent à la manière d'un être humain. Microsoft dispose d'une licence d'utilisation de cette technologie dans le cadre d'un accord conclu en échange d'investissements importants dans OpenAI.

Selon le rapport de Bloomberg, le nouveau service d'IA (qui n'a pas encore de nom public) répond à l'intérêt croissant des agences de renseignement pour l'utilisation de l'IA générative dans le traitement des données classifiées, tout en atténuant les risques de violations de données ou de tentatives de piratage. ChatGPT fonctionne normalement sur des serveurs cloud fournis par Microsoft, ce qui peut entraîner des risques de fuite et d'interception de données. Dans le même ordre d'idées, la CIA a annoncé l'année dernière son intention de créer un service similaire à ChatGPT, mais cet effort de Microsoft serait un projet distinct.


Un service déjà opérationnel

William Chappell, directeur technique de Microsoft pour les missions stratégiques et la technologie, a indiqué à Bloomberg que le développement du nouveau système a nécessité 18 mois de travail pour modifier un superordinateur d'IA dans l'Iowa. Le modèle GPT-4 modifié est conçu pour lire les fichiers fournis par ses utilisateurs, mais ne peut pas accéder à l'internet ouvert. « C'est la première fois que nous disposons d'une version isolée, c'est-à-dire non connectée à l'internet, sur un réseau spécial accessible uniquement par le gouvernement américain », a déclaré Chappell à Bloomberg.

Le nouveau service a été activé jeudi et est maintenant disponible pour environ 10 000 personnes de la communauté du renseignement, prêt à être testé par les agences concernées. Selon Chappell, il « répond actuellement à des questions ». Chappell a ajouté que ce nouveau service d'IA, qui est basé sur le GPT-4 LLM d'OpenAI, peut lire des données mais ne peut pas en tirer d'enseignements.

Des limitations potentielles

L'utilisation de GPT-4 pour analyser des données importantes présente un grave inconvénient : elle peut potentiellement confabuler (inventer) des résumés inexacts, tirer des conclusions erronées ou fournir des informations inexactes à ses utilisateurs. Étant donné que les réseaux neuronaux d'IA formés ne sont pas des bases de données et qu'ils fonctionnent sur la base de probabilités statistiques, ils ne constituent pas de bonnes ressources factuelles, à moins qu'ils ne soient complétés par un accès externe à des informations provenant d'une autre source, au moyen d'une technique telle que la génération augmentée par récupération (RAG).

Compte tenu de cette limitation, il est tout à fait possible que le GPT-4 puisse désinformer ou induire en erreur les services de renseignement américains s'il n'est pas utilisé correctement. Nous ne savons pas quel contrôle sera exercé sur le système, quelles seront les limites de son utilisation, ni comment il pourra être vérifié pour s'assurer de son exactitude.

L'outil doit encore être testé et approuvé

Bien que le nouveau service d'IA espion de Microsoft soit actuellement en ligne, il devra encore être testé et approuvé par les services de renseignement américains. On ne sait pas encore combien de temps durera cette période de test. On ne sait pas non plus quel prix Microsoft compte facturer au gouvernement pour ce service d'IA espionne.

En mars, le bureau de la cybersécurité de la Chambre des représentants des États-Unis a interdit l'utilisation de l'assistant d'IA générative Copilot de Microsoft par les membres de son personnel. La Chambre des représentants a déclaré qu'il y avait un « risque pour les utilisateurs en raison de la menace de fuite de données de la Chambre vers des services en nuage non approuvés par la Chambre ».

Microsoft a annoncé en novembre 2023 son intention de lancer une version de Copilot pour le travail gouvernemental au cours de l'été 2024. Depuis, l'entreprise a seulement déclaré qu'elle prévoyait toujours de lancer ce service Copilot pour le gouvernement dans le courant de l'année 2024.


L'administration Biden et ses rapports avec l'IA

Récemment, le président Joe Biden a alloué pas moins de 3,3 milliards de dollars à l'application et au développement de l'IA dans les agences fédérales américaines et au sein du gouvernement.

Citation Envoyé par Maison Blanche
Promouvoir la responsabilité technologique et l'innovation responsable dans le domaine de l'intelligence artificielle (IA)

Faire progresser le développement et l'utilisation sûrs, sécurisés et dignes de confiance de l'IA.

En 2023, le président a publié le décret 14110, « Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence » (développement et utilisation sûrs, sécurisés et dignes de confiance de l'intelligence artificielle), afin de garantir que l'Amérique ouvre la voie en saisissant les promesses et en gérant les risques de l'intelligence artificielle. Le décret établit de nouvelles normes pour la sûreté et la sécurité de l'IA, protège la vie privée des Américains, fait progresser l'équité et les droits civils, défend les consommateurs et les travailleurs, promeut l'innovation et la concurrence, fait progresser le leadership américain dans le monde, et bien plus encore. Le budget prévoit plus de 3 milliards de dollars dans toutes les agences afin de développer, tester, acheter et intégrer de manière responsable des applications d'IA transformatrices dans l'ensemble du gouvernement fédéral et de soutenir la mise en œuvre du décret de l'administration. Le budget propose également 300 millions de dollars en financement obligatoire pour augmenter le financement des agences pour l'IA, à la fois pour faire face aux risques majeurs et pour faire progresser son utilisation pour le bien public.
Selon le Washington Times, pour recruter des informaticiens et des spécialistes des données afin d'étudier l'IA, le président Biden a demandé...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !