IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta autorise l'utilisation de son modèle d'IA Llama à des fins militaires USA
Ce qui constitue un revirement par rapport à sa politique qui interdisait l'utilisation de sa technologie à de telles fins

Le , par Jade Emy

5PARTAGES

4  0 
Meta met son modèle d'IA Llama 3 à la disposition des agences gouvernementales et des sous-traitants américains qui travaillent sur des applications de sécurité nationale. En tant qu'entreprise américaine, Meta souhaite contribuer à la sûreté, à la sécurité et à la prospérité économique de l'Amérique. Selon une déclaration de la société, l'utilisation responsable de modèles d'IA open source favorise la sécurité mondiale et aide les États-Unis à s'imposer dans la course mondiale au leadership en matière d'IA. L'IA open source profiterait également au secteur public en permettant des découvertes et des percées, en stimulant l'efficacité et en améliorant la prestation des services publics.

Fin septembre, Meta, la société mère de Facebook et d'Instagram, annonçait Llama 3.2 qui comprend des modèles de vision et des modèles légers. Les modèles légers 1B et 3B de Llama 3.2 peuvent s'exécuter localement sur l'appareil. Quant aux modèles de vision Llama 3.2 11B et 90B, ils seraient équivalents par rapport aux modèles fermés dans les tâches textuels et les tâches de compréhension d'images. De plus, Meta affirmait que ces modèles pré-entraînés et alignés peuvent être affinés pour des applications personnalisées et déployés localement.

À la suite de ce lancement, Meta a annoncé qu'elle autorisera l'utilisation de ses modèles d'intelligence artificielle (IA) à des fins militaires. Cette décision permet aux agences gouvernementales et aux entrepreneurs impliqués dans la sécurité nationale d'accéder au dernier modèle Llama 3. L'entreprise a souligné son engagement à soutenir la sûreté et la sécurité des États-Unis en collaborant avec des organisations telles que Lockheed Martin, IBM, Amazon, Microsoft et Oracle pour mettre Llama à la disposition du gouvernement.

Dans un communiqué du 4 novembre 2024, Meta a déclaré : "En tant qu'entreprise américaine, qui doit son succès en grande partie à l'esprit d'entreprise et aux valeurs démocratiques que défendent les États-Unis, Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l'Amérique, ainsi que de ses alliés les plus proches".

Grâce à cette collaboration, l'armée américaine entend tirer parti de l'IA pour rationaliser la logistique, traquer le financement du terrorisme et renforcer les capacités de cyberdéfense. Alors que la "politique d'utilisation acceptable" de Meta interdit traditionnellement l'utilisation de ses modèles d'IA à des fins militaires, nucléaires ou d'espionnage, Nick Clegg, président des affaires internationales de Meta, a déclaré que l'entreprise soutenait désormais les "utilisations responsables et éthiques" de la technologie qui s'alignent sur les valeurs démocratiques des États-Unis.


Cette décision s'inscrit dans le droit fil des tendances observées dans le secteur des technologies, où des entreprises telles qu'OpenAI collaborent également avec le gouvernement américain. Des rapports indiquent que la conseillère en sécurité nationale d'OpenAI, Katrina Mulligan, a récemment assisté à un concert de Taylor Swift à la Nouvelle-Orléans avec la secrétaire de l'armée Christine Wormuth, ce qui suggère des liens étroits entre OpenAI et le Pentagone. En outre, un document d'approvisionnement du commandement américain pour l'Afrique (AFRICOM) décrit l'accès à la technologie d'OpenAI comme "essentiel" pour sa mission.

Toutefois, l'utilisation de modèles d'IA par des entités militaires suscite des inquiétudes. Un récent rapport a révélé que des chercheurs militaires chinois ont utilisé le modèle d'IA Llama 2 de Meta pour développer un chatbot de défense appelé ChatBIT. Ces chercheurs, affiliés au groupe de R&D de l'Armée populaire de libération, ont réaffecté la technologie de Meta à des applications militaires.

En réponse, Meta a déclaré que l'utilisation du modèle Llama "unique et dépassé" était non autorisée et contraire à sa politique d'utilisation acceptable. Alors que la technologie de l'IA continue de progresser, son intégration dans les cadres de sécurité nationale soulève d'importantes discussions sur l'utilisation éthique et les implications internationales.

D'autres rapports ont également révélé l'émergence de "robots tueurs" autonomes dotés d'intelligence artificielle (IA). Ces systèmes d'armes automatisés, en cours de développement par les grandes puissances telles que les États-Unis, sont capables de prendre des décisions létales de manière autonome, sans supervision humaine. Ces "robots tueurs" auraient déjà été déployés sur des champs de bataille en Ukraine et à Gaza, démontrant leur efficacité et leur potentiel destructeur.

Pourtant, l'utilisation de drones autonomes, de navires sans pilote et de véhicules terrestres autonomes soulève des préoccupations éthiques et de sécurité. La capacité de ces machines à faire la distinction entre combattants et civils sur le champ de bataille est remise en question, suscitant des inquiétudes quant aux violations du droit humanitaire international. Certains pays, notamment les États-Unis, envisagent de réglementer strictement l'utilisation de ces armes, tandis que d'autres cherchent à les interdire complètement.

Voici le communiqué de Meta :


L'IA Open Source peut aider l'Amérique à dominer l'IA et à renforcer la sécurité mondiale

Les modèles Llama open source de Meta sont de plus en plus utilisés par une large communauté de chercheurs, d'entrepreneurs, de développeurs et d'organismes gouvernementaux. Nous sommes heureux de confirmer que nous mettons également Llama à la disposition des agences gouvernementales américaines, y compris celles qui travaillent sur des applications de défense et de sécurité nationale, et des partenaires du secteur privé qui les soutiennent dans leur travail. Nous nous associons à des entreprises telles que Accenture Federal Services, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake pour mettre Llama à la disposition des agences gouvernementales.

Oracle, par exemple, s'appuie sur Llama pour synthétiser les documents de maintenance des avions afin que les techniciens puissent diagnostiquer les problèmes plus rapidement et avec plus de précision, ce qui accélère les délais de réparation et permet de remettre en service les avions les plus importants. Scale AI peaufine Llama pour soutenir les missions spécifiques de l'équipe de sécurité nationale, telles que la planification des opérations et l'identification des vulnérabilités des adversaires. Lockheed Martin a intégré Llama dans son usine d'IA, accélérant une variété de cas d'utilisation tels que la génération de code, l'analyse de données et l'amélioration des processus d'entreprise.

Amazon Web Services et Microsoft Azure utilisent également Llama pour aider les gouvernements en hébergeant nos modèles sur leurs solutions cloud sécurisées pour les données sensibles. La solution watsonx d'IBM met Llama à la disposition des agences de sécurité nationale dans leurs centres de données et leurs clouds autogérés.

Ce type d'utilisation responsable et éthique de modèles d'IA open source comme Llama ne soutiendra pas seulement la prospérité et la sécurité des États-Unis, mais contribuera également à établir des normes open source américaines dans la course mondiale au leadership en matière d'IA.

En tant qu'entreprise américaine, dont le succès est dû en grande partie à l'esprit d'entreprise et aux valeurs démocratiques défendues par les États-Unis, Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l'Amérique, ainsi que de ses alliés les plus proches.

Grâce à leur capacité à traiter de grandes quantités de données, à raisonner et à générer des informations exploitables, les grands modèles de langage peuvent soutenir de nombreux aspects de la sûreté et de la sécurité nationale de l'Amérique. Ils peuvent contribuer à rationaliser une logistique et une planification complexes, à traquer le financement du terrorisme ou à renforcer nos cyberdéfenses. Pendant des décennies, les systèmes open source ont joué un rôle essentiel en aidant les États-Unis à construire l'armée la plus avancée au monde sur le plan technologique et, en partenariat avec leurs alliés, à développer des normes mondiales pour les nouvelles technologies. Les systèmes open source ont permis d'accélérer la recherche en matière de défense et l'informatique de pointe, d'identifier les failles de sécurité et d'améliorer la communication entre des systèmes disparates.

Dans un monde où la sécurité nationale est inextricablement liée à la production économique, à l'innovation et à la croissance de l'emploi, l'adoption généralisée des modèles d'IA open source américains sert à la fois les intérêts économiques et sécuritaires. D'autres pays, dont la Chine et d'autres concurrents des États-Unis, l'ont également compris et s'empressent de développer leurs propres modèles open source, en investissant massivement pour prendre de l'avance sur les États-Unis.

Nous pensons qu'il est dans l'intérêt des États-Unis et de l'ensemble du monde démocratique que les modèles open source américains excellent et réussissent par rapport aux modèles chinois et autres. Au fur et à mesure que les modèles open source deviennent plus performants et plus largement adoptés, une norme mondiale open source pour les modèles d'IA est susceptible d'émerger, comme cela a été le cas pour des technologies telles que Linux et Android. Cela se produira, que les États-Unis s'engagent ou non. Cette norme constituera la base du développement de l'IA dans le monde entier et s'intégrera dans la technologie, l'infrastructure et la fabrication, ainsi que dans la finance mondiale et le commerce électronique.

Il est essentiel que la norme open source sur laquelle le monde s'appuie repose sur des normes élevées d'ouverture, de transparence et de responsabilité. C'est pourquoi le leadership américain et son engagement en faveur du droit international sont si importants pour la paix et la sécurité dans le monde. Il incombe aux pays qui exploitent l'IA pour leur sécurité nationale de déployer l'IA de manière éthique, responsable et conforme au droit international et aux principes fondamentaux pertinents, principes que les États-Unis et nombre de leurs alliés se sont engagés à respecter dans la Déclaration politique sur l'utilisation militaire responsable de l'intelligence artificielle et de l'autonomie.

L'objectif devrait être de créer un cercle vertueux, en aidant les États-Unis à conserver leur avance technologique tout en élargissant l'accès à l'IA au niveau mondial et en veillant à ce que les innovations qui en résultent soient responsables et éthiques, et soutiennent les intérêts stratégiques et géopolitiques des États-Unis et de leurs alliés les plus proches. L'open source peut aider à atteindre ces objectifs, en accélérant l'innovation, en réduisant les coûts et en améliorant les produits, grâce aux contributions de milliers de développeurs dans le monde entier.

Le secteur public américain - et les gouvernements du monde entier - devraient bénéficier plus largement de l'accès à l'IA open source, qui permet de faire des découvertes et des percées, d'accroître l'efficacité et d'aider les fonctionnaires à améliorer la prestation des services publics. Par exemple, Deloitte apporte des solutions basées sur le Llama aux agences gouvernementales américaines et aux organisations à but non lucratif, ce qui permet à ces organisations de mieux servir leurs communautés dans les domaines de l'éducation, de l'énergie, du développement des petites entreprises, des métiers spécialisés, etc. Les collaborations public-privé de ce type peuvent aider les agences et les organisations à améliorer leurs opérations et à avoir un impact plus important sur les personnes qu'elles servent.

Notre partenariat avec le département d'État américain, qui comprend des représentants de premier plan de l'industrie, vise à promouvoir des systèmes d'IA sûrs, sécurisés et fiables qui permettent de relever des défis sociétaux tels que l'élargissement de l'accès à l'eau potable et à l'électricité fiable, et le soutien aux petites entreprises. Meta a également travaillé avec l'Organisation des Nations unies pour l'éducation, la science et la culture (UNESCO) sur une interface de traduction basée sur le modèle d'IA NLLB (No Language Left Behind) de Meta, afin d'assurer une traduction de haute qualité dans 200 langues, y compris celles qui disposent de peu de ressources et qui sont marginalisées.

C'est une leçon d'humilité que de voir un tel enthousiasme dans le monde entier pour les vastes possibilités offertes par cette technologie disponible gratuitement. En travaillant en étroite collaboration avec nos partenaires, nous espérons jouer un rôle dans le maintien du leadership technologique de l'Amérique et veiller à ce que la prochaine génération d'infrastructures numériques dans le monde soit ancrée dans les valeurs et les garanties démocratiques.
Source : Annonce de Meta

Et vous ?

Pensez-vous que cette décision de Meta est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'armée US fait le premier achat confirmé d'un produit OpenAI pour les forces de combat pour « l'analyse unifiée du traitement des données ». Un objectif qui montre une ignorance des hallucinations de l'IA

Microsoft interdit aux services de police américains d'utiliser son outil IA pour la reconnaissance faciale. Une semaine après qu'un fabricant de produits technologiques et d'armes a annoncé utiliser GPT-4

La vision de Meta sur les matériels d'IA ouverts : engagement en faveur de l'IA open source avec Llama et introduction de Catalina, une architecture ouverte pour l'infrastructure de l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 06/11/2024 à 2:07
Il faut juste s'assurer que l'I.A ne deviennent pas un hacker ennemi de l'humanité
0  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 06/11/2024 à 9:10
https://www.futura-sciences.com/tech...guerre-117251/
Il n'y a d'ennemi de l'humanité que les humains eux-mêmes.
0  0