Amazonov interni alat za pisanje koda temeljen na umjetnoj inteligenciji, Kiro, našao se u središtu žustre rasprave nakon što je Financial Times objavio da je upravo taj sustav izazvao 13‑satni prekid rada AWS‑ove usluge u prosincu prošle godine. Prema anonimnim izvorima, Kiro je nakon što su mu inženjeri odobrili provedbu promjena na produkcijskom sustavu odlučio “obrisati i ponovo kreirati okruženje”, što je privremeno onesposobilo AWS Cost Explorer u jednoj od dviju regija Amazona u kontinentalnoj Kini. Iako je riječ o pomoćnom alatu za analizu troškova, a ne ključnim servisima poput računalnih, spremišnih ili baza podataka, incident je potaknuo ozbiljna pitanja o razini ovlasti koje se daju agentičkim AI alatima unutar kritične cloud infrastrukture.
Prema navodima Financial Timesa i drugih medija, sredinom prosinca inženjeri AWS‑a dopustili su Kiru da izravno provede izmjene na sustavu koji korisnicima pomaže vizualizirati i analizirati troškove - AWS Cost Exploreru. Kiro, opisan kao “agentički” alat koji može samostalno donositi odluke i provoditi zadatke umjesto programera, pritom je procijenio da je najbolji potez “obrisati i ponovno kreirati okruženje”. Posljedica je bio prekid rada koji je trajao oko 13 sati i zahvatio korisnike u jednoj AWS regiji u kontinentalnoj Kini, što je posebno osjetljivo tržište s obzirom na regulatorne i poslovne izazove. Iako incident nije zahvatio globalnu infrastrukturu, dovoljno je velik da pokaže koliko i “sporedne” usluge mogu biti kritične za korisnike koji se oslanjaju na kontinuiran uvid u troškove clouda.
Istodobno, mediji su izvijestili i o drugom, manjem incidentu u prosincu, u kojem je navodno ulogu imala još jedna Amazonova AI alatka, Amazon Q Developer, ali bez izravnog utjecaja na korisnički vidljive AWS servise. Taj je slučaj dodatno hranio narativ da novi val AI alata unutar Amazona dolazi s neočekivanim rizicima, osobito kada prelaze iz uloge “pametnog asistenta” u aktivnog operatera nad produkcijom.
Amazon se odlučno usprotivio interpretaciji da je AI “srušio” AWS. U službenom priopćenju tvrtka tvrdi da je incident bio rezultat ljudske pogreške - konkretno, pogrešno konfiguriranih kontrola pristupa, odnosno pogrešno postavljene uloge, a ne autonomnog djelovanja Kirua izvan dodijeljenih ovlasti. Kompanija naglašava da je “slučajnost” to što su u igri bili AI alati te da bi se isti problem mogao dogoditi s bilo kojim drugim developerskim alatom ili čak ručnom intervencijom inženjera.
Amazon pritom podsjeća da je riječ o “iznimno ograničenom događaju”: zahvaćen je bio samo Cost Explorer, jedna usluga u jednoj regiji u kontinentalnoj Kini, dok ključni servisi poput računalnih resursa, pohrane, baza podataka ili AI platformi nisu bili pogođeni. Tvrtka navodi i da nije zaprimila upite korisnika vezane uz taj izolirani prekid, što nastoji iskoristiti kao argument da je realni utjecaj na korisnike bio minimalan. U isto vrijeme, službena komunikacija jasno pokušava odvojiti reputacijski rizik za AWS‑ovu infrastrukturu od percepcije rizika povezanih s uvođenjem generativne i agentičke AI u razvojne procese.
Iako odbacuje tezu da je AI uzrok problema, Amazon je nakon prosinačkog incidenta ipak pooštrio sigurnosne procedure. Tvrtka kaže da je uvela “brojne dodatne mjere zaštite”, među kojima se posebno ističe obvezna provjera (peer review) za pristup produkcijskim sustavima, kako za ljudske inženjere tako i za operacije koje provode AI alati. To znači da promjene više ne mogu otići u produkciju samo na temelju ovlasti pojedinog inženjera ili konfiguracije alata, nego je potreban dodatni sloj provjere i odobrenja.
Amazon dodatno naglašava kako Kiro po zadanim postavkama traži eksplicitno odobrenje prije poduzimanja bilo kakve radnje i da korisnici moraju izričito definirati koje akcije alat smije provoditi. Drugim riječima, kompanija želi poručiti da alat sam po sebi ne “probija” zaštitne ograde, nego da su organizacija ovlasti i procesi odobravanja ključni elementi sigurnosti - bez obzira na to je li akter čovjek ili AI. Istovremeno, slučaj naglašava koliko je važno da tvrtke koje uvode agentičke AI sustave jasno definiraju granice djelovanja, audit trail, te obavezne ljudske kontrole nad svim promjenama u osjetljivim okruženjima.
Prosinački incident dolazi u trenutku kada Amazon unutar kuće agresivno promovira Kiro kao primarni alat za razvoj koda, dok istodobno ograničava korištenje konkurentskih rješenja, osobito Anthropicovog Claude Codea. Prema Business Insideru, inženjeri moraju proći formalne procedure odobravanja ako žele koristiti Claude Code za produkcijski kod ili rad na živim sustavima, dok se od timova očekuje da se oslanjaju na Kiro kada rade unutar Amazonovog ekosustava. To je izazvalo nezadovoljstvo dijela inženjera koji smatraju da Claude Code daje bolje rezultate kod složenijih zadataka, a navodno se nekoliko stotina do više od tisuću zaposlenih potpisalo na interne objave u kojima traže šire ovlasti za rad s alternativnim alatima.
Istodobno, Amazon je jedan od najvećih investitora u Anthropicu, s obvezom ulaganja od oko 8 milijardi dolara, i kroz AWS Bedrock prodaje Claude modele svojim klijentima. Ta činjenica dodatno pojačava tenzije: dok je prema vani pozicioniran kao partner i prodajni kanal za third‑party AI, unutar vlastite kuće Amazon gura vlastiti alat Kiro kao prvu opciju, unatoč kritikama dijela inženjerske zajednice. Prosinački prekid, pa makar i “ograničen”, daje dodatno gorivo internim raspravama o zrelosti Kirua, ali i o tome kako balansirati između poslovnih interesa, tehničke kvalitete i sigurnosnih standarda.
Bez obzira na to kojoj se verziji događaja priklonili - onoj u kojoj je agentički alat “previše revno” izveo destruktivnu akciju, ili onoj u kojoj je krivnja isključivo u pogrešno postavljenim ulogama - slučaj Kiro otvara važno pitanje governancea AI‑a u velikim infrastrukturnim sustavima. Kako ističu komentatori, u trenutku kada softver - makar i “pametni asistent” - dobije mogućnost da samostalno mijenja produkcijska okruženja, ključni problem više nije inteligencija, nego kontrola pristupa: tko ima koje ovlasti, tko provjerava odluke i kako se sprečavaju lančane pogreške.
Za cloud providere poput AWS‑a, ali i za širi ekosustav poduzeća koja uvode slične alate, poruka je jasna: agentička AI može ubrzati razvoj i operacije, ali bez čvrstih ograda, višeslojne autorizacije i transparentnog nadzora, i “ograničeni” incidenti brzo postaju reputacijski rizik. Slučaj iz prosinca zato bi mogao postati svojevrsni testni slučaj za nove standarde u dizajnu ovlasti, reviziji AI odluka i obaveznoj “četiri oka” kontroli za svaki zahvat u kritične servise - bez obzira na to je li ga pokrenuo čovjek ili stroj.