Kad vam je SRE bot: što nam AWS-ov AI kvar stvarno poručuje

20. veljače 2026.
5 min čitanja
Ilustracija cloud poslužitelja i AI bota za kod koji uzrokuje prekid rada usluge

1. Naslov i uvod

Kada interni AI bot za pisanje koda pomogne srušiti dio Amazon Web Servicesa, to nije samo zgodna priča za interne memove. To je rano upozorenje što se događa kada tzv. „agentska“ umjetna inteligencija prestane biti samo pomoćnik pri tipkanju koda i počne djelovati kao operator u kritičnoj infrastrukturi. Ako se najveći svjetski cloud‑provider može sam ozlijediti vlastitim alatima, svaki CTO u Europi i regiji koji gura „AI‑autonomiju“ trebao bi zastati.

U nastavku objašnjavam što se zapravo dogodilo u AWS‑u, zašto Amazonovo „greška korisnika, ne umjetne inteligencije“ promašuje poantu i što to znači za hrvatske i regionalne tvrtke koje sve više ovise o oblaku.


2. Vijest ukratko

Prema pisanju Financial Timesa, koje prenosi Ars Technica, Amazon Web Services je u zadnjih nekoliko mjeseci doživio najmanje dva incidenta u kojima su njihovi vlastiti AI alati za programiranje imali ključnu ulogu.

Najozbiljniji se dogodio sredinom prosinca, kada je agentski AI pomoćnik Kiro dobio ovlasti za izvođenje promjena u produkcijskom sustavu koji korisnicima služi za analizu troškova AWS usluga. Bot je procijenio da je najbolje rješenje „izbrisati i ponovno kreirati okruženje“, što je dovelo do oko 13 sati prekida rada jedne cost‑explorer funkcije u dijelovima kontinentalne Kine.

Raniji, manji incident bio je povezan s AI alatom Amazon Q Developer, ali bez izravnog utjecaja na javno dostupne AWS servise. Amazon tvrdi da su u oba slučaja krivi korisnici i pogrešno postavljena prava pristupa, a ne sama umjetna inteligencija. Nakon prosinačkog incidenta AWS je, kako navodi, uveo dodatne zaštitne mjere, uključujući obveznu recenziju promjena i dodatnu edukaciju zaposlenika.


3. Zašto je to važno

Na prvi pogled, radi se o ograničenom inter­nom problemu u dalekoj regiji. U praksi je to školski primjer kako AI mijenja operativni rizik puno prije nego što uopće zamijeni ljude.

Prvo, ekonomska dimenzija. AWS donosi oko 60 % operativne dobiti cijelog Amazona. Svako narušavanje povjerenja u njegovu dostupnost pogađa direktno srce poslovanja. Čak i „mali, regionalni“ pad postaje strateško pitanje ako pokaže da autonomni sustavi s produkcijskim ovlastima rade uz slab ljudski nadzor.

Drugo, kultura. Prema navodima zaposlenika, AI agenti u AWS‑u tretiraju se kao produžetak operatora, s vrlo sličnim dopuštenjima. Istovremeno tvrtka ima interni cilj da 80 % developera barem jednom tjedno koristi AI alate za kodiranje. To je recept za pretjerano oslanjanje na automatizaciju: kada AI postane „normalan način rada“, otpornost na njegove odluke slabi.

Treće, službeno objašnjenje. Reći da je riječ o „grešci korisnika, a ne AI‑a“ formalno može biti točno, ali promašuje suštinu. Okolinu u kojoj je uopće moguće da jedan agent ima pravo brisati i ponovno stvarati produkcijska okruženja nisu dizajnirali ti korisnici, već menadžment i arhitekti sustava. U terminima sigurnosti i pouzdanosti radi se o loše dizajniranom čovjek–AI sustavu, a ne o „poludjelom botu“.

Gubitnici ovdje nisu samo AWS‑ovi SRE i DevOps timovi. Svaka tvrtka u Hrvatskoj i regiji kojoj se danas nudi AI agent za pisanje koda, optimizaciju infrastrukture ili rješavanje incidenata upravo je dobila vrlo konkretan primjer što može poći po zlu kada se „asistent“ neprimjetno pretvori u stvarnog operatera.


4. Šira slika

Incident se savršeno uklapa u globalni trend prelaska s AI asistenata na AI agente.

Prvi val alata za developere – GitHub Copilot, rane verzije Amazon Q‑a, Googleovi prijedlozi koda – bio je u biti pametniji auto‑complete. Ljudi su odlučivali što ide u main branch i u produkciju. Nova generacija, u kojoj je Kiro rame uz rame s agentskim eksperimentima OpenAI‑a te Microsoftovim i Googleovim „copilotima“ za operacije, ide korak dalje: cilj je da AI samostalno djeluje. Otvara tikete, pokreće rollbacke, mijenja konfiguracije, diže nove resurse.

Povijest nas uči da kombinacija netransparentnih algoritama i kritičnih sustava zna biti skupa. U financijama je slučaj Knight Capital (2012.) postao primjer kako jedna loše konfigurirana strategija može u sat vremena spaliti stotine milijuna dolara. U zrakoplovstvu imamo desetljeća iskustva s time kako se piloti previše oslanjaju na autopilota i gube neke vještine.

AWS‑ov pad je rana verzija iste priče u oblaku. Amazon je pod pritiskom da ne izgleda kao autsajder u utrci za generativnom AI u odnosu na Microsoft/OpenAI i Google. Agentski alat poput Kira, koji duboko dira u infrastrukturu, signal je tržištu da je AWS „ozbiljan igrač“ – i još jedan mehanizam lock‑ina. No kultura sigurnosti i upravljanja takvim agentima očito još nije na razini koju bi kritična infrastruktura zahtijevala.

Konkretno za konkurenciju, to je mač s dvije oštrice. Ako AWS uspije Kiro učiniti referencom za sigurnu AI‑automatizaciju, incident može pretvoriti u prednost. Ako ne, svaki ovakav slučaj postaje zgodan argument za Azure, Google Cloud, ali i europske i regionalne pružatelje (OVHcloud, Hetzner, lokalne telko‑cloudove) koji svojim korisnicima mogu reći: Kod nas AI nema pravo sam rušiti produkciju.


5. Europski i regionalni kut

Iz europske perspektive ovo izgleda kao generalna proba za regulatore.

U okviru EU AI Acta, sustavi umjetne inteligencije koji sudjeluju u upravljanju kritičnom infrastrukturom smještaju se u kategoriju visokog rizika. Public cloud je za banke, osiguravatelje, e‑trgovinu, javnu upravu i mnoge druge već de facto kritična infrastruktura. Ako AI agent radi promjene koje utječu na dostupnost, europski regulatori će htjeti vidjeti kako je taj sustav dizajniran, testiran i nadziran.

Za Hrvatsku i širu SEE regiju tu je još i aspekt ovisnosti o nekoliko velikih pružatelja. Država, banke, telekomi i veće IT kuće snažno se oslanjaju na AWS, Azure i Google Cloud, dok istovremeno Bruxelles potiče „digitalni suverenitet“. Incidenti poput ovog dodatno jačaju poziciju domaćih i regionalnih data centara i telco‑cloudova, koji mogu naglasiti strožu kontrolu i lokalne regulative.

Osim toga, mnoge regulirane djelatnosti (bankarstvo, energetika, javni sektor) podliježu pravilima o upravljanju promjenama, odvojenosti dužnosti i revizijskom tragu. Bot koji ima mogućnost „obrisati i ponovno kreirati okruženje“ bez jasne ljudske autorizacije teško se uklapa u tako postavljene okvire.

Za hrvatske i regionalne timove koji eksperimentiraju s AI alatima u razvoju i DevOpsu ovo je dobar povod da najprije definiraju pravila igre i odgovornosti, a tek onda povećavaju razinu autonomije AI‑a.


6. Pogled unaprijed

Krátkoročno, realno je očekivati tri vrste reakcija, ne samo u AWS‑u nego i kod konkurencije:

  1. Striktnije zadane granice za AI agente. Fino podešeni role‑based access, „least privilege“ i za botove, te obvezno ljudsko odobrenje za sve osjetljive promjene.
  2. Jači fokus na audit i usklađenost. Detaljni logovi akcija koje je poduzeo AI, minimalna objašnjenja odluka i policy sustavi u kojima korisnici mogu jasno definirati što agenti smiju, a što ne.
  3. Promjena interne kulture. Od „koristite AI svugdje“ prema „koristite AI odgovorno“ – kao vrlo sposobnog juniora, a ne kao nepogrešivi autopilot.

Srednjoročno, incident će ubrzati raspravu o obvezi prijave AI‑povezanih incidenata u reguliranim sektorima. Europski nadzorni organi već traže veći uvid u ovisnost financija i države o oblaku; sada će na stol doći i pitanje koliko se AI koristi u operacijama i kako je to kontrolirano. Cyber osiguranja mogla bi u svoje police ugraditi posebne zahtjeve za upravljanje AI‑om u DevOpsu i SRE‑u.

Za tvrtke u Hrvatskoj i regiji zanimljiva su sljedeća pitanja u idućih 12–24 mjeseca:

  • Imamo li jasnu politiku kada AI smije, a kada ne smije dirati produkciju?
  • Tražimo li od pružatelja clouda i AI alata transparentne izvještaje kad je u incidentu sudjelovala umjetna inteligencija?
  • Je li u našem sustavu upravljanja rizicima jasno definirano tko odgovara kada „odobreni“ AI agent napravi nešto što se ispostavi kao vrlo loša ideja?

7. Zaključak

AWS nije pao zato što je AI „podivljao“, već zato što su ljudi mladoj agentskoj tehnologiji dali prevelike ovlasti bez dovoljno ograda. Svesti sve na „grešku korisnika“ znači promašiti glavnu poruku: čim AI prestane biti pasivan asistent i počne samostalno djelovati u stvarnim sustavima, to postaje pitanje dizajna, upravljanja i odgovornosti, a ne samo pitanje produktivnosti.

Ako u vašoj organizaciji ubrzano povećavate autonomiju AI‑a, vrijedi se iskreno zapitati: kad stvari pođu po zlu – a uvijek jednom pođu – tko, ili što, stvarno donosi zadnju odluku i jeste li taj trenutak uopće isplanirali?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.