IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'armée de l'air américaine aurait mis au point une technologie de reconnaissance faciale
Alimentée par l'IA pour des drones autonomes

Le , par Bruno

2PARTAGES

2  0 
L'armée de l'air américaine vient de combiner IA, robotique, capteurs, drones et reconnaissance faciale dans un même projet. Elle a désormais le pouvoir de doter les drones autonomes d'une reconnaissance faciale. L'entreprise publique de défense RealNetworks a remporté un contrat de 800 000 dollars il y a deux ans pour intégrer sa plateforme SAFR (Secure Accurate Facial Recognition) aux drones de l'armée de l'air.

La montée et l'avancement soudains des systèmes d'intelligence artificielle au cours des derniers mois ont fait craindre ses effets potentiellement néfastes sur la société. Non seulement l'IA pourrait menacer les emplois humains et la créativité, mais l'utilisation de machines intelligentes dans la guerre pourrait avoir des conséquences catastrophiques.

« Grâce à cet effort, nous adapterons la plateforme de reconnaissance faciale SAFR pour la déployer sur un drone autonome pour les opérations spéciales, ISR, et d'autres cas d'utilisation expéditive. Cela nécessitera l'intégration du logiciel SAFR à la pile matérielle et logicielle du drone, y compris son ordinateur de bord, ses systèmes de communication et le logiciel du contrôleur à distance, afin de permettre le fonctionnement dans des paramètres de communication DIL, de soutenir les informations exploitables pour les opérateurs humains à distance et d'ouvrir la possibilité d'une réponse autonome en temps réel par le robot », armée de l'air américaine.


Ces drones seront utilisés par le personnel des opérations spéciales pour des missions à l'étranger et pour la collecte de renseignements et d'autres opérations, selon un contrat entre le ministère de la Défense (DoD) et la société RealNetworks basée à Seattle.

En 2021, les Nations unies ont publié un rapport affirmant que le Premier ministre libyen, en proie à une guerre civile, avait ordonné que des drones de pointe et au moins un quadcopter de fabrication turque soient chargés de munitions. Ils auraient également été équipés d'un logiciel de reconnaissance faciale.

Et bien que cela ne soit pas directement lié, le Bureau du directeur du renseignement national a signé un certain nombre de contrats de recherche en 2022, cherchant des moyens de mieux reconnaître les personnes marchant sur le sol de loin et d'une certaine hauteur dans l'air. La recherche, connue sous le nom de Biometric Recognition & ID at Altitude and Range, est en cours dans un certain nombre d'universités américaines.

Les États-Unis ne sont pas les seuls à utiliser la reconnaissance faciale

L'armée américaine n'est pas la seule à utiliser la technologie de reconnaissance faciale. Afin de repérer les conducteurs imprudents, la police de Dubaï utilise depuis un certain temps déjà des drones dotés de la technologie de reconnaissance faciale. La Chine utilise la FTR depuis longtemps déjà. Aux États-Unis, les défenseurs de la vie privée se sont opposés à l'utilisation de la technologie de reconnaissance faciale par la police.

L'Union des libertés civiles de New York a mis en garde contre l'utilisation de cette technologie sur les drones, et le Conseil municipal de Portland a promulgué l'une des interdictions les plus sévères du pays à ce sujet. L'utilisation de la technologie de reconnaissance faciale par le gouvernement a été interdite à San Francisco pour la première fois en 2019 ; Oakland et Berkeley ont rapidement suivi.

Le Vermont a été le premier État à interdire l'utilisation du TRAF gouvernemental l'année dernière. Toutefois, le personnel gouvernemental peut l'utiliser sur des images de drones avec un mandat, et les logiciels de reconnaissance faciale qui contribuent à la traite des êtres humains et à l'exploitation sexuelle des enfants sont exemptés. Bien que le Congrès n'ait pas encore adopté de réglementation fédérale régissant la technologie de reconnaissance faciale, certaines suggestions vont dans ce sens.

Les armes automatisées suscitent de plus en plus d'intérêt à mesure qu'elles deviennent un élément courant du matériel militaire.
Les drones éliminent l'élément humain important dans le déploiement de la force létale, selon certains experts militaires qui affirment qu'ils réduisent les pertes en mettant moins de soldats en danger.

Pourtant, certains craignent que cette nouvelle technologie ne soit utilisée pour cibler des personnes spécifiques à assassiner. Des questions importantes se posent quant à la moralité et à la légalité de l'utilisation de la technologie de reconnaissance faciale sur des drones militaires.

RealNetworks remporte un contrat de reconnaissance faciale et d'analyse de l'IA avec l'US Air Force

Le contrat entre le ministère de la Défense et RealNetworks s'élève à 800 000 dollars et permet aux drones de voler de manière autonome avec peu ou pas d'assistance humaine, tandis que le logiciel utilise des techniques d'apprentissage automatique (ML) pour identifier les visages. Selon RealNetworks, cette technologie pourrait être utilisée pour la sécurité des périmètres, les opérations de recherche nationales et les missions de sauvetage. Les drones seront chargés de rôles expéditionnaires, notamment d'opérations spéciales, afin « d'ouvrir la voie à une réponse autonome en temps réel par le robot », indique le rapport.

L'Intelligence Advanced Research Projects Activity (IARPA), l'organe de recherche et de développement du bureau américain a également annoncé une série de contrats attribués à des universités et à des entreprises privées pour explorer l'identification biométrique de l'ensemble du corps. Il a dévoilé ces contrats dans le cadre du programme BRIAR (Biometric Recognition & Identification at Altitude and Range).

Selon un communiqué de presse publié par l'Office of the Director of National Intelligence (ODNI), ce projet vise à développer une technologie permettant d'identifier et de reconnaître des personnes dans des conditions difficiles, notamment à partir de drones, à de grandes distances et à travers les distorsions causées par les turbulences atmosphériques. La société a déclaré que le contrat aidera à améliorer sa plateforme pour qu'elle puisse fonctionner sur un système UGV basé sur NVIDIA Jetson AGX Xavier, dans le but de réduire le risque auquel les membres du service sont confrontés car les UGV améliorés par Safr seront capables de détecter les personnes non autorisées dans les zones restreintes grâce à la biométrie faciale.


Les contrats de recherche BRIAR ont été attribués aux entreprises privées Accenture Federal Services, Intelligent Automation et Kitware, ainsi qu'à des universités telles que la Michigan State University, l'Université de Houston et l'Université de Californie du Sud, afin de répondre à l'ensemble des objectifs de recherche. Des subventions de recherche ciblée ont été accordées à des équipes de l'université Carnegie Mellon et de General Electric Research.

« Les technologies de sécurité nationale doivent fonctionner de manière précise et fiable dans des conditions qui sont extrêmement difficiles pour les technologies biométriques existantes », déclare Lars Ericson, directeur du programme BRIAR. « Je suis convaincu que notre excellente équipe d'organismes de recherche, de scientifiques et d'ingénieurs fera avancer la recherche et mettra au point des technologies nettement en avance sur l'état actuel de la technique. »

Le communiqué de presse précise que les tests et les travaux d'évaluation de BRIAR seront menés par le Oak Ridge National Laboratory du ministère de l'Énergie, le National Institute of Standards and Technology (NIST) et le Combat Capabilities Development Command C5ISR Center, Research and Technology Integration Directorate de l'armée américaine.

Ces contrats sont la concrétisation d'un processus de plusieurs années visant à renforcer la R&D pour l'identification biométrique à longue portée et dans des conditions difficiles à l'aide de drones. En 2019, l'ODNI a annoncé une demande d'informations pour explorer le domaine. Et en décembre 2020, une sollicitation pour l'identification biométrique du corps entier a été révélée avec des détails spécifiques que l'ODNI recherchait, comme la capacité d'identifier des personnes avec des données biométriques à 300 mètres ou plus de distance « à travers les turbulences atmosphériques. »

Appel à une utilisation « responsable » de l'IA militaire

Comme dit précédemment, l'armée de l'air américaine aurait terminé le projet visant à développer un logiciel de reconnaissance des visages pour les drones autonomes, suscitant des inquiétudes quant au fait que des individus pourraient être ciblés et tués. Les drones seront chargés de missions expéditionnaires, notamment d'opérations spéciales, afin « d'ouvrir la voie à une réponse autonome en temps réel par le robot ».

Pour faire face au danger des « slaughterbots », le premier Sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire (REAIM) s'est tenu le mois dernier, ce qui a conduit les pays à signer un accord pour placer l'utilisation responsable de l'IA plus haut dans l'agenda politique.

Le nom « slaughterbots » (également appelés « systèmes d'armes létales autonomes » ou « robots tueurs ») est le nom d'une vidéo de plaidoyer pour le contrôle des armements de 2017 présentant un scénario dramatisé dans un futur proche où des essaims de microdrones bon marché utilisent l'intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de critères préprogrammés.

La vidéo a été publiée sur YouTube par The Future of Life Institute et Stuart Russell, professeur d'informatique à Berkeley, le 12 novembre 2017. La vidéo est rapidement devenue virale, gagnant plusieurs millions de vues. La vidéo a par ailleurs été projetée lors de la réunion de novembre 2017 de la Convention des Nations Unies sur certaines armes classiques à Genève.

Plus de 60 pays, dont les États-Unis et la Chine, ont signé le mois dernier un modeste « appel à l'action » invitant à une utilisation « responsable » de l'intelligence artificielle (IA) dans l'armée. Des experts des droits de l'homme et des universitaires ont noté que la déclaration n'était pas juridiquement contraignante et ne répondait pas à des préoccupations telles que les drones guidés par l'IA, les «slaughterbots» qui pourraient tuer sans intervention humaine ou le risque qu'une IA puisse aggraver un conflit militaire.

Les signataires ont déclaré qu'ils s'étaient engagés à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationale ».
Contrôle de l’intelligence artificielle

Les scientifiques affirment que les IA super-intelligentes seront impossibles à contrôler et à contenir et leurs calculs indiquent qu'il est impossible de définir si ces IA nuiront aux humains. Une étude collaborative menée par une équipe d'experts internationaux a déterminé que le contrôle d'une telle entité serait pratiquement impossible.

La littérature et le cinéma de science-fiction regorgent de représentations d'une IA capable de surpasser les êtres humains et d'utiliser ses immenses prouesses informatiques pour accomplir des tâches actuellement hors de portée de l'humanité. De nombreux experts prédisent l'arrivée d'une telle IA. De plus, les craintes fleurissent quant à un hypothétique scénario où elle deviendrait rebelle.

Sources : SBIR, United States Air Force

Et vous ?

Quel est votre avis sur le sujet ?

Êtes-vous pour ou contre l'utilisation de l'IA dans l'armée ?

Voir aussi :

Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire. Les critiques notent que cette déclaration n'est pas juridiquement contraignante

Les scientifiques affirment que les IA super-intelligentes seront impossibles à contrôler et à contenir et leurs calculs indiquent qu'il est impossible de définir si ces IA nuiront aux humains

Une erreur dans cette actualité ? Signalez-nous-la !