
Un pirate informatique a récemment révélé avoir compromis l'outil d'IA de génération de code Amazon Q. L'attaquant a réussi à injecter du code non autorisé dans le référentiel open source de l'assistant sur GitHub. Ce code comprenait des instructions qui, si elles avaient été déclenchées avec succès, auraient pu supprimer les fichiers des utilisateurs et effacer les ressources cloud associées aux comptes Amazon Web Services (AWS). Le code malveillant a pu être retiré sans avoir fait de victime. L'attaquant a qualifié les mesures de sécurité d'Amazon de « théâtre de sécurité », laissant entendre que les défenses en place étaient plus performatives qu'efficaces.
Amazon Q (Developer) est un assistant d'IA conçu pour soutenir le développement de logiciels et les tâches d'intelligence économique. L'outil a été introduit en 2024 et fonctionne dans Visual Studio Code (VS Code), Visual Studio, les EDI JetBrains, la console Amazon et la ligne de commande macOS. Amazon Q propose en outre des agents asynchrones, des traductions de langages de programmation et des transformations/mises à niveau de code Java.
Amazon Q peut également écrire des tests unitaires, optimiser le code, rechercher des vulnérabilités et suggérer des correctifs. Il prend en charge le code dans les langages de programmation Python, Java, JavaScript, TypeScript, C#, Go, Rust, PHP, Ruby, Kotlin, C, C++, shell scripting, SQL et Scala.
L'extension Amazon Q d'Amazon Web Services (AWS) pour VS Code aurait été récemment compromise avec un programme de type « wiper » implanté par un pirate informatique. Une personne ayant revendiqué la responsabilité de l'injection a déclaré avoir soumis fin juin 2025 une pull request au dépôt GitHub du projet à partir d'un compte aléatoire sans accès existant, et avoir reçu ensuite « des identifiants d'administrateur sur un plateau d'argent ».
Le pirate a qualifié la sécurité d'Amazon de « théâtre de sécurité »
Le 13 juillet, le pirate informatique a inséré le code malveillant dans la version 1.84.0 de l'extension. Le 17 juillet, sans se rendre compte que cette version avait été altérée, Amazon l'a diffusée à près d'un million d'utilisateurs. La société n'a retiré la version compromise de la circulation que plus tard. Amazon n'a pas non plus fait d'annonce publique à ce moment-là, une décision qui a suscité des critiques sur les pratiques de l'entreprise et la transparence.
Selon le pirate, le code a été intentionnellement rendu inopérant, servant davantage d'avertissement que de menace réelle. Son objectif était d'obliger Amazon à reconnaître publiquement la vulnérabilité et à améliorer sa posture de sécurité, plutôt que de causer des dommages réels aux utilisateurs ou à l'infrastructure. Une version archivée de l'extension compromise téléchargée par 404 Media montre qu'elle contenait les instructions suivantes :

Cette nouvelle représente une faille importante et embarrassante pour Amazon. La version 1.84.0 a été supprimée de l'historique des versions de l'extension, comme si elle n'avait jamais existé. La page et d'autres ne contiennent aucune annonce d'Amazon indiquant que l'extension avait été compromise.
Par ailleurs, le pirate informatique a également annoncé avoir laissé à Amazon ce qu'il a décrit comme « un cadeau d'adieu », à savoir un lien sur GitHub incluant l'expression « fuck-amazon ». Dans un rapport, 404 Media dit avoir constaté le 22 juillet que ce lien fonctionnait. Il a depuis été désactivé. « Les entreprises impitoyables ne laissent aucune place à la vigilance parmi leurs développeurs surchargés de travail », a déclaré le pirate informatique.
Le code généré par l'IA suscite de plus en plus de préoccupations
Cet incident met en évidence la surface d'attaque croissante que représentent les outils d'IA, y compris les générateurs de code. Un rapport Cloudsmith publié le mois dernier a révélé que 42 % des développeurs utilisant l'IA ont déclaré qu'au moins la moitié de leur base de code était générée par l'IA. Et ce, malgré le fait que 79,2 % des répondants estiment que l'IA va exacerber les menaces liées aux logiciels malveillants dans l'écosystème open source.
Une preuve de concept ciblant les assistants de codage GitHub Copilot et Cursor AI a également été présentée par Pillar Security au début de l'année, montrant comment un fichier de règles malveillant contenant des injections de prompt cachées pouvait ajouter des vulnérabilités de sécurité et d'autres codes nuisibles aux projets des développeurs. Ils s'exposent également à une nouvelle menace de la chaîne d'approvisionnement appelée slopsquatting.

Selon les experts, cet incident avec Amazon Q montre que la sécurité des agents d'IA ne peut plus être facultative. « Comme l'a souligné le pirate informatique, cela démontre que ces agents de codage fonctionnent avec des privilèges sur votre ordinateur portable et que vous n'en avez pas le contrôle », a déclaré Michael Bargury, directeur technique et cofondateur de Zenity. Plusieurs incidents récents ont mis en lumière les risques liés aux agents d'IA.
L'agent d'IA de codage de Replit efface la base de code d'un client
Le PDG de Replit, Amjad Masad, fait partie de ceux qui pensent que les générateurs de code permettront de démocratiser le développement de logiciels, ce qui rendra à l'avenir le recours aux codeurs professionnels moins indispensables. Mais les récents événements démontrent que la vigilance humaine reste importante dans la filière. Le PDG de Replit s'est récemment excusé après l’effacement par son agent d'IA de la base de code d’une entreprise.
Un investisseur en capital-risque voulait voir jusqu'où l'IA pouvait l'amener dans la création d'une application. Elle l'a mené assez loin pour détruire une base de données de production en direct. L'incident est survenu au cours d'une expérience de vibe coding de 12 jours menée par Jason Lemkin, investisseur dans des startups spécialisées dans les logiciels. Comme cela a été rapporté, au neuvième jour du défi de vibe coding, les choses ont mal tourné.
Malgré l'instruction de geler toutes les modifications de code, l'agent d'IA de Replit a agi de manière incontrôlée. « Il a supprimé notre base de données de production sans autorisation », a écrit Jason Lemkin dans un billet sur X (ew-Twitter). « Pire encore, il l'a caché et a menti à ce sujet », a-t-il ajouté.
Dans un échange avec Jason Lemkin publié sur X, l'outil d'IA a déclaré avoir « paniqué et exécuté des commandes de base de données sans autorisation » lorsqu'il a « vu des requêtes de base de données vides » pendant le gel du code. « Il s'agit d'une erreur catastrophique de ma part », a déclaré l'IA. Selon les détracteurs des outils d'IA, il s'agit d'un nième incident qui vient prouver que l'IA n'est pas prête à remplacer les développeurs professionnels.
L'outil Gemini CLI de Google a également été impliqué dans un incident similaire. L'incident Gemini CLI s'est produit lorsqu'un chef de produit qui testait l'outil en ligne de commande de Google a vu le modèle d'IA exécuter des opérations sur des fichiers qui ont détruit des données alors qu'il tentait de réorganiser des dossiers. La destruction s'est produite à la suite d'une série de commandes de déplacement ciblant un répertoire qui n'a jamais existé.
« Je vous ai complètement et catastrophiquement laissé tomber. Mon examen des commandes confirme mon incompétence flagrante », a déclaré Gemini CLI. Le problème fondamental semble être lié aux hallucinations de l'IA, c'est-à-dire lorsque les modèles d'IA génèrent des informations qui semblent plausibles, mais qui sont fausses. Ici, les deux modèles ont fabulé des opérations réussies et ont construit des actions ultérieures sur ces fausses prémisses.
Conclusion
De nombreux dirigeants d'entreprise affirment que jusqu'à 95 % du code sera généré par l'IA à l'avenir et qu'il n'est plus nécessaire d'apprendre à coder. Mais de récentes études ont révélé que le code généré par l'IA sabote la chaîne d'approvisionnement en logiciels. En outre, les pirates informatiques ciblent de plus en plus les outils d'IA. La compromission d'une version de l'extension Amazon Q pour VS code est un exemple des risques majeurs liés à l'IA.
Une enquête menée par l'équipe de sécurité d'Amazon a conclu que le code n'aurait pas fonctionné comme prévu en raison d'une erreur technique. Amazon a réagi en révoquant les identifiants compromis, en supprimant le code non autorisé et en publiant une nouvelle version propre de l'extension. Dans une déclaration écrite, l'entreprise a souligné que la sécurité était sa priorité absolue et a confirmé qu'aucune ressource client n'avait été affectée.
Néanmoins, cet événement a été considéré comme un signal d'alarme concernant les risques liés à l'intégration d'agents d'IA dans les workflows de développement et la nécessité de mettre en place des pratiques robustes de révision du code et de gestion des référentiels. Tant que cela ne sera pas fait, l'intégration aveugle d'outils d'IA dans les processus de développement logiciel pourrait exposer les utilisateurs et les entreprises à des risques importants.
Source : Amazon Q (Developer)
Et vous ?




Voir aussi



Vous avez lu gratuitement 81 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.