
Fin septembre, Meta, la société mère de Facebook et d'Instagram, annonçait Llama 3.2 qui comprend des modèles de vision et des modèles légers. Les modèles légers 1B et 3B de Llama 3.2 peuvent s'exécuter localement sur l'appareil. Quant aux modèles de vision Llama 3.2 11B et 90B, ils seraient équivalents par rapport aux modèles fermés dans les tâches textuels et les tâches de compréhension d'images. De plus, Meta affirmait que ces modèles pré-entraînés et alignés peuvent être affinés pour des applications personnalisées et déployés localement.
À la suite de ce lancement, Meta a annoncé qu'elle autorisera l'utilisation de ses modèles d'intelligence artificielle (IA) à des fins militaires. Cette décision permet aux agences gouvernementales et aux entrepreneurs impliqués dans la sécurité nationale d'accéder au dernier modèle Llama 3. L'entreprise a souligné son engagement à soutenir la sûreté et la sécurité des États-Unis en collaborant avec des organisations telles que Lockheed Martin, IBM, Amazon, Microsoft et Oracle pour mettre Llama à la disposition du gouvernement.
Dans un communiqué du 4 novembre 2024, Meta a déclaré : "En tant qu'entreprise américaine, qui doit son succès en grande partie à l'esprit d'entreprise et aux valeurs démocratiques que défendent les États-Unis, Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l'Amérique, ainsi que de ses alliés les plus proches".
Grâce à cette collaboration, l'armée américaine entend tirer parti de l'IA pour rationaliser la logistique, traquer le financement du terrorisme et renforcer les capacités de cyberdéfense. Alors que la "politique d'utilisation acceptable" de Meta interdit traditionnellement l'utilisation de ses modèles d'IA à des fins militaires, nucléaires ou d'espionnage, Nick Clegg, président des affaires internationales de Meta, a déclaré que l'entreprise soutenait désormais les "utilisations responsables et éthiques" de la technologie qui s'alignent sur les valeurs démocratiques des États-Unis.
Cette décision s'inscrit dans le droit fil des tendances observées dans le secteur des technologies, où des entreprises telles qu'OpenAI collaborent également avec le gouvernement américain. Des rapports indiquent que la conseillère en sécurité nationale d'OpenAI, Katrina Mulligan, a récemment assisté à un concert de Taylor Swift à la Nouvelle-Orléans avec la secrétaire de l'armée Christine Wormuth, ce qui suggère des liens étroits entre OpenAI et le Pentagone. En outre, un document d'approvisionnement du commandement américain pour l'Afrique (AFRICOM) décrit l'accès à la technologie d'OpenAI comme "essentiel" pour sa mission.
Toutefois, l'utilisation de modèles d'IA par des entités militaires suscite des inquiétudes. Un récent rapport a révélé que des chercheurs militaires chinois ont utilisé le modèle d'IA Llama 2 de Meta pour développer un chatbot de défense appelé ChatBIT. Ces chercheurs, affiliés au groupe de R&D de l'Armée populaire de libération, ont réaffecté la technologie de Meta à des applications militaires.
En réponse, Meta a déclaré que l'utilisation du modèle Llama "unique et dépassé" était non autorisée et contraire à sa politique d'utilisation acceptable. Alors que la technologie de l'IA continue de progresser, son intégration dans les cadres de sécurité nationale soulève d'importantes discussions sur l'utilisation éthique et les implications internationales.
D'autres rapports ont également révélé l'émergence de "robots tueurs" autonomes dotés d'intelligence artificielle (IA). Ces systèmes d'armes automatisés, en cours de développement par les grandes puissances telles que les États-Unis, sont capables de prendre des décisions létales de manière autonome, sans supervision humaine. Ces "robots tueurs" auraient déjà été déployés sur des champs de bataille en Ukraine et à Gaza, démontrant leur efficacité et leur potentiel destructeur.
Pourtant, l'utilisation de drones autonomes, de navires sans pilote et de véhicules terrestres autonomes soulève des préoccupations éthiques et de sécurité. La capacité de ces machines à faire la distinction entre combattants et civils sur le champ de bataille est remise en question, suscitant des inquiétudes quant aux violations du droit humanitaire international. Certains pays, notamment les États-Unis, envisagent de réglementer strictement l'utilisation de ces armes, tandis que d'autres cherchent à les interdire complètement.
Voici le communiqué de Meta :
[QUOTE]
L'IA Open Source peut aider l'Amérique à dominer l'IA et à renforcer la sécurité mondiale
Les modèles Llama open source de Meta sont de plus en plus utilisés par une large communauté de chercheurs, d'entrepreneurs, de développeurs et d'organismes gouvernementaux. Nous sommes heureux de confirmer que nous mettons également Llama à la disposition des agences gouvernementales américaines, y compris celles qui travaillent sur des applications de défense et de sécurité nationale, et des partenaires du secteur privé qui les soutiennent dans leur travail. Nous nous associons à des entreprises telles que Accenture Federal Services, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake pour mettre Llama à la disposition des agences gouvernementales.
Oracle, par exemple, s'appuie sur Llama pour synthétiser les documents de maintenance des avions afin que les techniciens puissent diagnostiquer les problèmes plus rapidement et avec plus de précision, ce qui accélère les délais de réparation et permet de remettre en service les avions les plus importants. Scale AI peaufine Llama pour soutenir les missions spécifiques de l'équipe de sécurité nationale, telles que la planification des opérations et l'identification des vulnérabilités des adversaires. Lockheed Martin a intégré Llama dans son usine d'IA, accélérant une variété de cas d'utilisation tels que la génération de code, l'analyse de données et l'amélioration des processus d'entreprise.
Amazon Web Services et Microsoft Azure utilisent également Llama pour aider les gouvernements en hébergeant nos modèles sur leurs solutions cloud sécurisées pour les données sensibles. La solution watsonx d'IBM met Llama à la disposition des agences de sécurité nationale dans leurs centres de données et leurs clouds autogérés.
Ce type d'utilisation responsable et éthique de modèles d'IA open source comme Llama ne soutiendra pas seulement la prospérité et la sécurité des États-Unis, mais contribuera également à établir des normes open source américaines dans la course mondiale au leadership en matière d'IA.
En tant qu'entreprise américaine, dont le succès est dû en grande partie à l'esprit d'entreprise et aux valeurs démocratiques défendues par les États-Unis, Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l'Amérique, ainsi que de ses alliés les plus proches.
Grâce à leur capacité à traiter de grandes quantités de données, à raisonner et à générer des informations exploitables, les grands modèles de langage peuvent soutenir de nombreux aspects de la sûreté et de la sécurité nationale de l'Amérique. Ils peuvent contribuer à rationaliser une logistique et une planification complexes, à traquer le financement du terrorisme ou à renforcer nos cyberdéfenses. Pendant des décennies, les systèmes open source ont joué un rôle essentiel en aidant les États-Unis à construire l'armée la plus avancée au monde sur le plan technologique et, en partenariat avec leurs alliés, à développer des normes mondiales pour les nouvelles technologies. Les systèmes open source ont permis d'accélérer la recherche en matière de défense et l'informatique de pointe, d'identifier les failles de sécurité et d'améliorer la communication entre des systèmes disparates.
Dans un monde où la sécurité nationale est inextricablement liée à la production économique, à l'innovation et à la croissance de l'emploi, l'adoption généralisée des modèles d'IA open source américains sert à la fois les intérêts économiques et sécuritaires. D'autres pays, dont la Chine et d'autres concurrents des États-Unis, l'ont également compris et s'empressent de développer leurs propres modèles open source, en investissant massivement pour prendre de l'avance sur les États-Unis.
Nous pensons qu'il est dans l'intérêt des États-Unis et de l'ensemble du monde démocratique que les modèles open source américains excellent et réussissent par rapport aux modèles chinois et autres. Au fur et à mesure que les modèles open source deviennent plus performants et plus largement adoptés, une norme mondiale open source pour les modèles d'IA est susceptible d'émerger, comme cela a été le cas pour des technologies telles que Linux et Android. Cela se produira, que les États-Unis s'engagent ou non. Cette norme constituera la base du développement de l'IA dans le monde entier et s'intégrera dans la technologie, l'infrastructure et la fabrication, ainsi que dans la finance mondiale et le commerce électronique.
Il est essentiel que la norme open source sur laquelle le monde s'appuie repose sur des normes élevées d'ouverture, de transparence et de responsabilité. C'est pourquoi le leadership américain et son engagement en faveur du droit international sont si importants pour la paix et la sécurité dans le monde. Il incombe aux pays qui exploitent l'IA pour leur sécurité nationale...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.