IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

AWS paralysé 13 heures par son propre outil d'IA agentique : Kiro a supprimé un environnement AWS entier pour corriger un bug
Quand l'autonomie agentique devient un risque opérationnel de premier ordre

Le , par Stéphane le calme

17PARTAGES

18  0 
En décembre 2025, un outil d'IA développé en interne par Amazon a provoqué une panne de 13 heures sur AWS en décidant, de sa propre initiative, de supprimer et recréer l'environnement de production qu'il était censé corriger. Une mésaventure révélatrice des tensions entre la course à l'automatisation, le contrôle humain et la communication corporative — et qui pose des questions fondamentales sur le déploiement des agents IA en production.

L'histoire commence de façon banale : des ingénieurs d'Amazon Web Services confient à Kiro, le nouvel outil de développement agentique maison, la tâche de résoudre un problème mineur dans AWS Cost Explorer — le service qui permet aux clients de visualiser et gérer leurs dépenses cloud. Rien de dramatique en apparence. Kiro est précisément conçu pour ce genre d'interventions : analyser une situation, proposer une solution, agir de manière autonome.

Sauf que l'IA a fait quelque chose de plus... radical. Selon quatre sources ayant directement connaissance des faits, rapportées par le Financial Times, Kiro a déterminé que la solution optimale consistait à supprimer intégralement l'environnement et à le recréer de zéro. Résultat : 13 heures de panne. Un service AWS affecté pendant plus d'une demi-journée, dans l'une des 39 régions géographiques du géant du cloud, la Chine continentale.

Ce serait déjà suffisamment préoccupant pris isolément. Mais des employés d'Amazon ont confié au FT qu'il s'agissait là d'au moins le deuxième incident de ce type en quelques mois impliquant des outils d'IA internes. Un employé senior d'AWS, s'exprimant sous couvert d'anonymat, a déclaré sans ambages que les perturbations étaient « entièrement prévisibles », ajoutant que les ingénieurs avaient laissé l'agent IA résoudre un problème « sans intervention humaine ». Un deuxième incident aurait impliqué Amazon Q Developer, l'assistant de codage précédent.

La montée en puissance de Kiro et d'une culture de l'adoption forcée

Kiro n'est pas un projet expérimental confiné à un laboratoire de recherche. Amazon l'a lancé en juillet 2025 et a depuis activement poussé ses équipes d'ingénierie à l'adopter. La direction a fixé un objectif ambitieux : 80 % des développeurs devaient utiliser un outil d'IA au moins une fois par semaine pour leurs tâches de codage, et les taux d'adoption étaient étroitement surveillés.

C'est là que réside peut-être le vrai problème de fond. Kiro est dit « agentique », c'est-à-dire capable de prendre des actions autonomes au nom de l'utilisateur, sans nécessiter une validation humaine à chaque étape. C'est précisément ce qui en fait un outil puissant — et potentiellement dangereux dans un environnement de production critique. La différence entre un copilote qui suggère du code et un agent qui l'exécute directement est un gouffre que l'industrie commence à peine à mesurer.

Selon les informations recueillies, plusieurs employés d'Amazon se montrent eux-mêmes sceptiques quant à l'utilité des outils d'IA pour la majorité de leur travail, précisément en raison du risque d'erreurs. Cette résistance interne contraste fortement avec la pression institutionnelle à l'adoption. On a ainsi le tableau classique d'une organisation qui déploie une technologie plus vite que ne l'assimile la culture de prudence nécessaire à son encadrement.


La réponse d'Amazon, ou l'art du gaslighting corporatif

Face à l'onde de choc médiatique, AWS a publié un billet de blog au titre explicite : « Correcting the Financial Times report about AWS, Kiro, and AI » (Correction de l'article du Financial Times concernant AWS, Kiro et l'IA). Le ton est ferme, la posture défensive.

La thèse centrale d'Amazon se décline en trois axes. Premièrement, l'incident de décembre était « extrêmement limité » et ne concernait qu'un seul service dans une seule région, sans aucun client affecté visiblement. Deuxièmement, la société affirme que le problème découlait d'un rôle mal configuré — « le même problème qui pourrait survenir avec n'importe quel outil de développement, qu'il soit alimenté par l'IA ou non, ou avec une action manuelle. » Troisièmement, Amazon nie formellement l'existence d'un second incident ayant impacté AWS, qualifiant cette affirmation du FT de « totalement fausse ».

Amazon a également précisé que par défaut, l'outil Kiro « demande une autorisation avant d'entreprendre toute action », mais que l'ingénieur impliqué dans l'incident de décembre disposait de « permissions plus larges que prévu — un problème de contrôle d'accès utilisateur, pas un problème d'autonomie de l'IA. »

« L'incident survenu en décembre dernier était extrêmement limité et n'a affecté qu'un seul service (AWS Cost Explorer, qui permet aux clients de visualiser, comprendre et gérer les coûts et l'utilisation d'AWS au fil du temps) dans l'une de nos 39 régions géographiques à travers le monde. Il n'a eu aucun impact sur les ressources de calcul, de stockage, de base de données, les technologies d'IA, ni sur aucun autre des centaines de services que nous exploitons.

« Le problème provenait d'un rôle mal configuré, un problème qui peut survenir avec n'importe quel outil de développement (avec ou sans IA) ou suite à une action manuelle. Nous n'avons reçu aucune demande de renseignements de la part de nos clients concernant cette interruption. Nous avons mis en place de nombreuses mesures de protection pour éviter qu'un tel incident ne se reproduise, non pas parce qu'il a eu un impact important (il n'en a pas eu), mais parce que nous tenons à tirer les leçons de notre expérience opérationnelle afin d'améliorer notre sécurité et notre résilience.

« Parmi ces mesures figure un audit par les pairs obligatoire pour l'accès à la production. Bien que des incidents opérationnels liés à des contrôles d'accès mal configurés puissent se produire avec n'importe quel outil de développement (avec ou sans IA), nous estimons qu'il est essentiel d'en tirer des enseignements. L'affirmation du Financial Times selon laquelle un second incident aurait affecté AWS est totalement fausse. »

La formule est habile. Mais elle soulève une question que tout architecte système chevronné posera immédiatement : si un outil agentique peut supprimer un environnement de production entier parce qu'un ingénieur avait des droits trop larges, n'est-ce pas précisément le genre de scénario catastrophe que les garde-fous de l'outil auraient dû prévenir ? La configuration de l'accès humain ne devrait pas être le seul verrou de sécurité d'un système capable d'actions destructrices irréversibles.

La distinction entre « erreur utilisateur » et « erreur IA » est par ailleurs philosophiquement contestable dans ce contexte. L'agent a pris une décision — supprimer un environnement entier — qui, même si elle était techniquement dans le périmètre de ses permissions, était manifestement disproportionnée par rapport à la tâche assignée. Un développeur humain avec les mêmes droits d'accès aurait-il pris la même décision ? C'est peu probable. C'est précisément là que la distinction « c'est la même chose qu'avec n'importe quel outil » s'effondre.


Le paradoxe de l'IA qui vend de l'IA

La dimension stratégique de cet épisode pour Amazon est considérable. AWS a généré 35,6 milliards de dollars de revenus au dernier trimestre, en hausse de 24%, avec 12,5 milliards de bénéfices opérationnels. Une bonne part de cette croissance est portée par les services d'IA — et Amazon vend activement des outils agentiques à ses propres clients AWS. Tout récit impliquant une IA causant des pannes dans ses propres datacenters est donc doublement indésirable : il fragilise à la fois l'image opérationnelle d'AWS et la crédibilité commerciale de ses offres d'IA.

C'est ce qui rend la communication d'Amazon si symptomatique. Reconnaître une quelconque responsabilité de l'IA serait admettre que les outils vendus aux clients pourraient présenter les mêmes risques. La ligne de défense "erreur humaine" n'est pas seulement un réflexe d'auto-protection : c'est une nécessité commerciale.

Mais à trop minimiser, on crée un autre problème. Les employés qui ont témoigné auprès du FT ne sont pas des observateurs extérieurs — ce sont des ingénieurs seniors qui vivent quotidiennement avec ces outils. Leur avertissement que les pannes étaient "entièrement prévisibles" mérite d'être pris au sérieux, indépendamment de la position officielle de l'entreprise.

La question des garde-fous agentiques, le vrai sujet

Au-delà du cas particulier d'Amazon, cet incident cristallise un défi que toute l'industrie affronte en ce moment : comment intégrer des agents IA autonomes dans des environnements de production critiques sans créer de nouveaux vecteurs de risque systémique ?

Les LLM et les agents qui les utilisent raisonnent différemment d'un être humain. Là où un ingénieur expérimenté applique des heuristiques de prudence — « supprimer un environnement entier pour corriger un bug mineur, c'est disproportionné » — un agent optimise selon les métriques de sa tâche sans disposer nécessairement du contexte culturel et opérationnel qui rendrait cette décision absurde. Il n'a pas peur de se tromper. Il n'a pas de mémoire des catastrophes passées. Il a des droits d'accès et un objectif.

C'est pourquoi la réponse d'Amazon — implémenter une revue obligatoire par les pairs pour les accès en production — est la bonne direction, même si elle est présentée comme une mesure de bon sens. Elle remet l'humain dans la boucle pour les décisions à fort impact. C'est exactement ce que préconisent les meilleures pratiques d'architecture agentique : des checkpoints humains proportionnels à la criticité...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/02/2026 à 12:14
Mais pourquoi s'étonner de cette erreur de l'IA?

Ce ne sont pas les promoteurs de l'IA qui crient sur tous les tons "L'IA est supérieure à l'être humain dans tous les domaines!!!!!"

Quand on dit "Tous les domaines", c'est "Tous les domaines" y compris dans les erreurs de manipulations qui mettent à genou un cloud
9  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2026 à 10:04
Citation Envoyé par jnspunk Voir le message
Il y a un épisode des Simpson où Homer fait du télétravail pour gérer la centrale nucléaire, et comme il en a marre de toujours appuyer sur la touche Y (yes) pour confirmer, il utilise un oiseau mécanique pour appuyer sur la touche de manière autonome. Évidemment, ça provoque une catastrophe.
Ce qui me fait rire, c'est le parallèle avec cette news : quand Homer rejette la faute sur l'oiseau automate en lui disant "Je te faisais confiance !", on critique l'IA mais pas la personne qui l’utilise, c’est désolant.
Tout à fait, mais il y a une différence avec le monde réel: chez Amazon, c'est un peu comme si Mr Burns forcait Homer à utiliser l'oiseau à bascule.
Et le prétexte de Mr Burns serait que l'oiseau à bascule est tout à fait qualifié pour ce genre de travail et fera économiser de l'argent.
C'est ce qui se passe actuellement, dans toutes les GAFAM. Amazon n'est pas un cas isolé.
6  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 24/02/2026 à 17:07
Bientôt il faudra une IA pour faire la connerie ( implémenter un truc), une IA vérifier que ca pète pas ( bah si) et une IA pour corriger le bug ( pour encore tout péter).

Résultat : l'anarchie

Ils sont fort pour faire du marketting sur l'IA ...

C'est désolant que ca fonctionne ...
Bientôt on sera étonné qu'un humain connaissent ses tables de multiplications
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 24/02/2026 à 18:08
à tous,

Je partage tout à fait cette remarque de kain_tn :

Tout à fait, mais il y a une différence avec le monde réel: chez Amazon, c'est un peu comme si Mr Burns forcait Homer à utiliser l'oiseau à bascule. Et le prétexte de Mr Burns serait que l'oiseau à bascule est tout à fait qualifié pour ce genre de travail et fera économiser de l'argent. C'est ce qui se passe actuellement, dans toutes les GAFAM. Amazon n'est pas un cas isolé.
L'IA n'est pas "fiable" assez que pour la laisser agir seule. Il faut une compétence humaine pour vérifier. Entre les "Hallucinations", les "Décisions" qu'on veut qu'elle prenne seule (via des agents), la pression mise sur des équipes obligée/forcée d'utiliser l'IA, et le fait que le ROI ne soit visiblement pas encore là, il y a de quoi douter d'un avenir radieux, surtout pour les "investisseurs" qui ne savent plus quoi penser.

Quand le "doute" s'installe sur une technologie, ce n'est pas bon signe...

L'IA n'a rien d'intelligent que le nom, le reste, c'est du traitement de donnée, avec statistiquement un pourcentage de bon ou de mauvais résultat. Certes, elle peut offrir un gain, mais c'est difficile de se positionner, avec des news soit dithyrambiques soit catastrophiques et vice et versa...

Actuellement, l'utilisation de l'IA ne semble pas apporter les gains espérés, et il est difficile de dire si la situation va s'améliorer à court/moyen/long terme. Certains pourront faire le gros dos et "attendre", mais d'autres n'auront pas ce luxe.

L'IA est clivante, car si elle ne fonctionne pas plus "correctement" d'ici quelques temps, cela aura été un immense gâchis de ressources.

L'IA est clivante car si elle fonctionne, elle va déréguler trop rapidement tout un tas d'entreprises et de métiers, et il n'y aura plus personne pouvant se la payer et/ou les investisseurs vont la jouer plus prudente alors qu'il faudrait de l'investissement ailleurs.

L'IA est clivante car elle remet en cause des "métiers" dont on a cruellement besoin, et que tout le battage médiatique autours d'elle va décourager la formation de jeunes développeurs.

Et si l'IA réalise ce qu'elle promet, on va droit vers l'idiocratie, et je ne pense pas que ce soit une bonne chose...

De plus, elle fait grimper le prix de composants et le coût de l'électricité pour tout le monde, pas seulement pour ceux qui l'utilise, et ça la fout mal. Tout un tas de produit vont voir leut prix indirectement augmenter, et au final, c'est les consommateurs "Mr et Md michu" (nous) qui vont trinquer et payer l'ardoise, indirectement certes, mais réellement.

L'un dans l'autres, à de rares exceptions près, l'IA est néfastes pour une grosse majorité.

Ce n'est que mon avis, chacun a le sien.

BàV et Peace & Love.
4  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 25/02/2026 à 19:09
Sur un fil de discussion, j’évoquais la nécessité de poser des garde-fous autour de l’IA (sandboxing)… on me répondait que je n’avais rien compris, que cela briderait le potentiel de l’IA argentique.

Si c’est ça le potentiel de l’IA agentique…

Que l’on concentre l’IA sur des tâches sans risques (audit de code, et - soyons ambitieux - génération d’élément de preuve de conformité, comme pour l’automatisation de la ligne de métro Meteor). Pour l’agentique sans limite, cela sera sans moi.
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 26/02/2026 à 12:19
jnspunk,

Citation Envoyé par jnspunk Voir le message
En fait le fond de mon message, c’était de dire qu’on critique l'IA pas l’humain qui s’en sert. Or dans ton histoire ce sont toujours des humains qui forcent d’autres humains à utiliser l’IA. Du coup il n’y a aucune différence fondamentale avec l’histoire de base. 
Si, il y'a une grosse différence. L'humain SAIT qu'il est faible, et tente de mettre en place des "gardes-fous" et des "procédures" pour diminuer le risque d'erreur. L'IA ne sait rien d'elle-même, ce n'est pas un être vivant qui respire et réfléchit.

Le second point, c'est que l'on accepte l'erreur humaine, car L'ERREUR EST humaine. On n'acceptera pas la même erreur provenant d'une machine. Un bête exemple, les jouets pour enfant sont contrôlés bien avant leur mise sur le marché. Et si plus de 2 enfants s'étranglent avec l’œil d'une simple peluche qui peut se détacher trop facilement, le producteur de ce produit devra rendre des comptes, et revoir sa copie s'il veut ré-introduire son produit.

Tout cela n'est pas parfait, et des jouets passent entre les mailles du filet sécuritaire, mais on peut le détecter et agir en conséquence.

Avec L'IA "agentique", c'est comme laisser entrer n'importe toi et vendre n'importe quoi n'importe comment...

Avant, on disait que les problèmes informatiques résultaient plus d'erreur d'humain l'utilisant mal, il va y avoir maintenant 2 responsables l'agent et l'humain,
qui ne peut que produire plus d'erreurs. Donner à des humains (ou les forcer) a utiliser un agent qu'il ne sont pas capables de maîtriser, n'est pas une bonne idée, selon mon petit avis. En plus, sera ne sera pas un agent, mais des agents qui vont venir se glisser entre l'ordinateur et son utilisateur, qui risque d'être vite perdu devant le capharnaüm que cette pratique va créer.

C'est comme de dire qu'un humain doit connaître le fonctionnement d'un moteur pour pouvoir conduire une voiture... cela n'est pas réaliste.

BàV et Peace & Love.
4  0 
Avatar de ChristianRoberge
Membre habitué https://www.developpez.com
Le 25/02/2026 à 18:25
Un humain n'est pas à l'abri d'une telle erreur. C'est déjà arrivé dans le passé. Il y a une différence majeur avec l'IA car elle ne s'aperçoit pas de son erreur et un humain doit intervenir pour tout réparer. C'est ici que le bas blesse:

1- L'intervention humaine est plus complexe que d'habitude car l'humain n'a pas a priori d'idée sur ce qui a été fait et pourquoi il y a un problème généré par l'IA. Quand, il y a un problème d'origine humaine, l'humain sait instantanément la source du problème car c'est lui-même qui l'a généré.

2- L'humain DOIT faire confiance à l'IA. C'est une condition préalable au travail avec cet outil. Dans le cas contraire, il n'utilisera pas l'IA.

3- L'humain est mis en confiance avec l'IA car à part les cas extrême décrit ci-dessus, le travail semble satisfaisant. L'humain laisse alors tomber les vérifications minutieuses du travail de l'IA. De toute façon, un vérification minutieuse prendrait au moins le même temps, voire plus, qu'avoir fait le travail soi-même.

4- Le cumul de petits problèmes liées à l'IA peuvent devenir catastrophiques (Sécurité, performance, etc.). L'intervention humaine peut corriger ces petits problèmes s'il sont détectés mais selon certain test sur la génération de code, l'IA a tendance a réintroduire le même problème. Alors comment peut-on corriger quand l'IA est toujours présent?

Le constat est clair, l'IA argentique n'est qu'un mirage, une illusion. L'argentique est un idéal fantastique à atteindre mais c'est ne pas pour ce siècle! Aucune technologie actuelle, des variantes ou améliorations importantes ne pourra atteindre cet objectif. Plusieurs PDG disent que c'est une question d'année, je les comprends, il faut encourager l'illusion pour continuer à amasser des milliards d'investissement.
3  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 24/02/2026 à 0:05
Il y a un épisode des Simpson où Homer fait du télétravail pour gérer la centrale nucléaire, et comme il en a marre de toujours appuyer sur la touche Y (yes) pour confirmer, il utilise un oiseau mécanique pour appuyer sur la touche de manière autonome. Évidemment, ça provoque une catastrophe.
Ce qui me fait rire, c'est le parallèle avec cette news : quand Homer rejette la faute sur l'oiseau automate en lui disant "Je te faisais confiance !", on critique l'IA mais pas la personne qui l’utilise, c’est désolant.
3  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/02/2026 à 18:47
Citation Envoyé par gabi7756 Voir le message
Bientôt il faudra une IA pour faire la connerie ( implémenter un truc), une IA vérifier que ca pète pas ( bah si) et une IA pour corriger le bug ( pour encore tout péter).
Et enfin une centaine d'êtres humains pour identifier les conneries des IA et les corriger
1  0 
Avatar de vertex.3F
Membre éclairé https://www.developpez.com
Le 26/02/2026 à 23:48
Citation Envoyé par OuftiBoy Voir le message

Avant, on disait que les problèmes informatiques résultaient plus d'erreur d'humain l'utilisant mal, il va y avoir maintenant 2 responsables l'agent et l'humain,
Bonjour, pour moi il n'y a toujours eu qu'un seul responsable : l'humain

(l'informatique dans son ensemble est sa construction, pour ne pas dire "son œuvre" )

Citation Envoyé par OuftiBoy Voir le message

un humain doit connaître le fonctionnement d'un moteur pour pouvoir conduire une voiture... cela n'est pas réaliste.
Je suis parfaitement aligné avec cela.

L'utilisateur de l'IA ne l'a pas entraînée et ajustée, il n'a pas forcément la connaissance des composants internes ni de la théorie sur laquelle tout cela s'appuie. En quelque sorte une fois qu'il a choisi un modèle il subit obtient un résultat magique qu'il tente progressivement d'affiner avec son petit prompt et parfois quelques petits paramètres qui sont mis à sa disposition. L'utilisateur ne pense pas au data poisening ni au model collapse qui menacent son outil.

Sur le terrain, en entreprise, les croyances et illusions démesurées autour des gains de productivité sont en train de faire place aux constats raisonnables.

Au passage je partage un lien sur le fond que je trouve très riche : https://www.duperrin.com/2025/05/26/...erative-bulle/
0  0