
William « Hank » Taylor a déclaré utiliser ChatGPT pour l'aider à prendre des décisions stratégiques importantes. Le major général William « Hank » Taylor, commandant général de la 8e armée, a déclaré aux journalistes lors de la conférence de l'Association of the United States Army à Washington, DC, qu'il utilisait ChatGPT pour affiner la manière dont il prend des décisions qui affectent des milliers de soldats. C'est le dernier signe en date que même les hauts responsables du Pentagone expérimentent des outils d'IA générative.
ChatGPT est un chatbot génératif basé sur l'intelligence artificielle (IA) développé par OpenAI et lancé en 2022. Il est capable de générer du texte, de la parole et des images en réponse aux demandes des utilisateurs. On lui attribue le mérite d'avoir accéléré le boom de l'IA, une période caractérisée par des investissements rapides et l'attention du public pour le domaine de l'intelligence artificielle (IA).
Malgré son succès, le chatbot a été critiqué pour ses limites et son potentiel d'utilisation contraire à l'éthique. Il peut générer des réponses plausibles mais incorrectes ou absurdes, appelées « hallucinations ». Les biais dans ses données d'entraînement se reflètent dans ses réponses. Le chatbot peut faciliter la malhonnêteté académique, générer des informations erronées et créer des codes malveillants.
Pourtant, en janvier 2024, l'éditeur de ChatGPT, OpenAI, a discrètement supprimé de sa politique d'utilisation les termes interdisant l'utilisation militaire de sa technologie. Une décision qui a de sérieuses implications compte tenu de l'utilisation croissante de l'IA sur les champs de bataille. Bien que la nouvelle politique de l'entreprise stipule que les utilisateurs ne doivent pas nuire à des êtres humains ou "développer ou utiliser des armes", les experts ont déclaré que la suppression des termes "militaire et guerre" laisse la porte ouverte à des contrats lucratifs avec l'armée américaine et d'autres armées.
Selon une récente déclaration d'un haut gradé de l'armée américaine, c'est le cas. William « Hank » Taylor a déclaré utiliser ChatGPT pour l'aider à prendre des décisions stratégiques importantes. William « Hank » Taylor est un général de division de l'armée américaine qui occupe depuis juillet 2024 le poste de directeur des opérations du Commandement des Nations unies, du Commandement des forces combinées ROK/États-Unis et des Forces américaines en Corée. Il a occupé le poste de commandant général de la 2e division d'infanterie de 2023 à 2024. Auparavant, il a occupé le poste de directeur de l'aviation militaire de l'armée américaine de 2022 à 2023.
Le haut gradé de l'armée américaine stationné en Corée du Sud a déclaré qu'il avait recours à un chatbot doté d'une IA pour l'aider à réfléchir à des décisions clés en matière de commandement et à des décisions personnelles. C'est le dernier signe en date que même les hauts responsables du Pentagone expérimentent des outils d'IA générative. Le major général William « Hank » Taylor, commandant général de la 8e armée, a déclaré aux journalistes lors de la conférence de l'Association of the United States Army à Washington, DC, qu'il utilisait ChatGPT pour affiner la manière dont il prend des décisions qui affectent des milliers de soldats.
« ChatGPT et moi sommes devenus très proches ces derniers temps », a déclaré Taylor lors d'une table ronde avec les médias, bien qu'il ait évité de donner des exemples d'utilisation personnelle. « Je demande à ce que l'on construise, j'essaie de construire des modèles qui nous aideront tous », aurait déclaré Taylor. Il a ajouté qu'il explorait la manière dont l'IA pourrait soutenir ses processus décisionnels, non pas dans des situations de combat, mais dans la gestion des tâches quotidiennes de commandement.
« En tant que commandant, je veux prendre de meilleures décisions », a expliqué le général. « Je veux m'assurer de prendre les bonnes décisions au bon moment afin d'avoir l'avantage. » Taylor, qui occupe également le poste de chef d'état-major du Commandement des Nations Unies en Corée du Sud, a déclaré qu'il considérait cette technologie comme un outil potentiel pour créer des modèles analytiques et former son personnel à penser plus efficacement.
Ces commentaires constituent l'une des reconnaissances les plus directes à ce jour de la part d'un haut responsable militaire américain utilisant un chatbot commercial pour l'aider dans sa réflexion sur le leadership ou les opérations. L'armée américaine s'efforce d'intégrer l'intelligence artificielle dans ses opérations à tous les niveaux, de la logistique et la surveillance aux tactiques de combat, alors que des nations rivales comme la Chine et la Russie s'empressent de faire de même.
Les responsables affirment que les systèmes basés sur l'IA pourraient permettre un traitement plus rapide des données et un ciblage plus précis, mais ils ont également soulevé des inquiétudes quant à la fiabilité et la responsabilité lorsque des logiciels assument des rôles traditionnellement réservés au jugement humain. Le Pentagone a déclaré que les conflits futurs pourraient se dérouler à la « vitesse des machines », nécessitant des décisions prises en une fraction de seconde qui dépassent les capacités humaines.
L'ancien secrétaire de l'armée de l'air Frank Kendall a averti l'année dernière que les progrès rapides dans le domaine des armes autonomes signifient que « les temps de réponse pour produire des effets sont très courts » et que les commandants qui ne parviennent pas à s'adapter « ne survivront pas au prochain champ de bataille ».
L'IA a déjà été testée dans des simulations de combat, notamment dans le cadre d'une expérience menée par l'armée de l'air et l'Agence pour les projets de recherche avancée de défense (DARPA), au cours de laquelle un algorithme a piloté un avion F-16 modifié lors d'un combat aérien simulé. D'autres programmes sont utilisés pour passer au crible les données satellitaires, suivre la logistique et rationaliser les formalités administratives pour les unités sur le terrain. Les forces d'opérations spéciales de l'armée ont adopté des outils similaires pour réduire ce qu'elles appellent la « charge cognitive » des opérateurs, en utilisant l'IA pour rédiger des rapports, traiter les données des missions et analyser les renseignements à grande échelle.
Dans le même temps, les responsables du Pentagone appellent à la prudence. Les responsables de la défense ont averti que les systèmes d'IA générative peuvent divulguer des informations sensibles ou produire des conclusions erronées si les données sont incomplètes ou manipulées. Le général de division Taylor a reconnu que l'un des défis liés à l'utilisation de cette technologie de pointe consiste à suivre le rythme de l'évolution rapide des outils d'IA, notamment en s'assurant qu'ils répondent aux exigences strictes de l'armée en matière de sécurité.
Un exemple de cette prudence, l'armée de l'espace américaine a suspendu l'utilisation d'outils d'intelligence artificielle générative basés sur le web, tels que ChatGPT, pour son personnel, en raison de problèmes de sécurité des données, selon une note de service. Une note datée du 29 septembre 2023 et adressée aux Guardians, le nom que l'armée de l'espace donne à ses employés, interdit au personnel d'utiliser de tels outils d'intelligence artificielle, y compris des modèles à grand langage, sur les ordinateurs du gouvernement jusqu'à ce qu'il reçoive l'approbation officielle du bureau principal de la technologie et de l'innovation de l'armée.
L'interdiction temporaire est due à des risques d'agrégation de données. L'utilisation de l'IA générative, alimentée par de grands modèles de langage qui ingèrent d'énormes quantités de données antérieures pour apprendre, a explosé au cours de l'année écoulée, sous-tendant des produits en constante évolution tels que ChatGPT d'OpenAI, qui peut rapidement générer du contenu comme du texte, des images ou des vidéos à partir d'une simple invite.
ChatGPT a attiré l'attention du monde entier, les gouvernements et les entreprises s'empressant de comprendre son potentiel et ses pièges. Si les versions les plus récentes du programme sont capables d'effectuer des raisonnements et des analyses complexes, elles ont également montré qu'elles pouvaient produire des erreurs et des inventions.
Source : Major général William « Hank » Taylor, commandant général de la 8e armée
Et vous ?


Voir aussi :



Vous avez lu gratuitement 11 194 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.