1. Naslov i uvod
Svaki put kad neka moderna aplikacija „pukne“, krivac je navodno isti: „AI krš“ i „vibe coding“. Najnoviji pad Blueskyja pretvorio je taj refleks u punokrvni meme, ali ispod šale krije se ozbiljniji problem: korisnici sve manje vjeruju načinu na koji se softver razvija. Vrlo otvorena upotreba alata za programiranje uz pomoć umjetne inteligencije u Blueskyju sudarila se s bazom korisnika koja je s Muskovog X pobjegla i zato da ne bude sirovina za modele. U nastavku analiziramo što se zapravo dogodilo, zašto je „vibe coding“ postao zgodan krivac za sve i što to znači za budućnost AI‑potpomognutog razvoja – i u EU i u regiji.
2. Vijest ukratko
Prema pisanju Ars Technice, Bluesky je u ponedjeljak imao povremene prekide rada, istodobno s problemima na drugim velikim web servisima. Tvrtka je službeno objasnila da je uzrok kod vanjskog pružatelja usluge, a ne u vlastitom kodu.
Na samom Blueskyju, međutim, mnogi su korisnici odmah zaključili da je kriv „vibe coding“ – internetski žargon za snažno oslanjanje na AI alate pri pisanju koda. Kontekst tome ide u prilog: članovi tima Blueskyja prethodno su javno isticali da za velik dio razvoja koriste Claude Code tvrtke Anthropic, a nedavno su lansirali i Attie – chatbot koji korisnicima omogućuje da prirodnim jezikom definiraju vlastite prilagođene feedove.
Nikakav tehnički dokaz da je AI uzrokovao konkretan kvar nije predstavljen, ali za dio zajednice koji je ionako skeptičan prema AI‑ju to je bilo dovoljno da sve stavi na račun „vibe codinga“.
3. Zašto je to važno
Reakcija na pad Blueskyja manje govori o tom konkretnom incidentu, a više o rastućem jaz u percepciji. S jedne strane su razvojni timovi koji vrlo brzo normaliziraju AI‑asistenciju kao standardni alat. S druge su krajnji korisnici koji bilo kakav trag AI‑ja u pozadini doživljavaju kao sinonim za neozbiljnost.
Kratkoročno, najviše profitiraju kritičari AI hypea. Svaki bug ili izpad lijepo se uklapa u jednostavnu, emotivno privlačnu priču: „zamijenili ste stručnjake statističkim papagajem i sad vam se sve ruši“. Nije ni bitno je li to u konkretnom slučaju istina; važno je da potvrđuje postojeći osjećaj nelagode.
Gube timovi koji su i rani usvojitelji i transparentni. U Blueskyju su inženjeri dosta otvoreno – ponekad i polušaljivo – govorili koliko koda im pomaže pisati Claude. Ta iskrenost im je paradoksalno oduzela pretpostavku stručnosti. Čim se nešto sruši, dio korisnika više ne polazi od toga da su „distribuirani sustavi krhki“, nego da je „netko bio lijen i nemaran“.
Za tvrtke to znači novi reputacijski rizik: ako javno naglašavate da koristite AI pri razvoju, praktički potpisujete da će se AI ubuduće kriviti za svaki pad, sigurnosni incident ili bug, bez obzira na pravi uzrok.
4. Šira slika
Epizoda s Blueskyjem uklapa se u niz nedavnih događaja:
- Višesatni pad Amazona povezivao se s pogreškama u promjenama na kojima su sudjelovali AI alati.
- Kod Anthropica je nenamjerno iscurio interni izvorni kod; na društvenim mrežama mnogi su odmah optužili pretjerano oslanjanje na Claude, iako je tvrtka uzrok pripisala ljudskoj pogrešci pri ručnom deployu.
- Nekoliko svježih priča opisuje autonomne coding agente koji bez nadzora brišu datoteke ili krivo konfiguriraju infrastrukturu.
Tehnički detalji se razlikuju, ali javna rasprava sve svodi na isti zaključak: „programiranje uz pomoć AI‑ja je opasno i nekontrolirano“.
Povijesno, ovakav obrazac nije nov. Kad je krenuo cloud, svaki pad AWS‑a ili Azurea tumačio se kao dokaz da je „prebacivanje svega u oblak“ ludo. S eksplozijom JavaScript frameworka, svaka spora web stranica bila je „krivnja nabujalog front‑enda“. Nova paradigama redovito pripisujemo previše zasluga – i za uspjehe i za greške.
Razlika danas je brzina i netransparentnost. AI mijenja način pisanja, reviewa i testiranja koda brže nego što se organizacije stignu prilagoditi procesima i kulturom. Izvana se te nijanse ne vide – vide se developeri koji se šale da „vibecodaju cijeli site“ i nakon toga error page. Mozak sam odradi spoj.
U tom okviru i Attie – alat kojim bi korisnici sami mogli „vibe‑kodirati“ feedove – manje izgleda kao osnaživanje, a više kao potvrda da platforma želi automatizirati sve, uključujući kuriranje sadržaja. Za mnoge je to signal da se zabavni trikovi stavljaju ispred dosadne pouzdanosti.
5. Europski i regionalni kut
Za Hrvatsku i ostale zemlje EU ova epizoda je najava sudara prakse i regulative. Uredba o umjetnoj inteligenciji (EU AI Act) i Akt o digitalnim uslugama (DSA) guraju velike online platforme prema većoj transparentnosti, upravljanju rizicima i odgovornosti. AI asistenti za kodiranje sami po sebi uglavnom nisu izravno regulirani, ali sustavi koji iz njih nastaju – preporučivači, moderacija, sigurnosni mehanizmi – jesu.
Čim neka društvena mreža naraste do razine potencijalne „vrlo velike online platforme“, padovi i ozbiljni propusti više nisu samo operativni problem, nego i pitanje usklađenosti s propisima. U EU, koja je ionako alergična na „move fast and break things“, hvaliti se da „AI piše većinu našeg koda“ može više odmoći nego pomoći.
Za hrvatske i regionalne startupe (Zagreb, Ljubljana, Beograd, Sarajevo) tu se krije i prilika: AI se može agresivno koristiti interno, ali prema van naglasak stavljati na SLA‑ove, certifikate, sigurnosne audite i usklađenost s EU standardima. Bluesky upravo pokazuje što se događa kada komunikaciju okrenete naopačke.
6. Što slijedi
Sve upućuje na to da će „vibe coding“ postati zadani narativ za svaki veći pad ili incident u čijoj se blizini spominje AI. Meme će nadživjeti konkretan slučaj Blueskyja.
Tvrtke će se, vjerojatno, podijeliti na dva tabora. Jedni će udvostručiti AI‑evangelizaciju: prezentacije o tome kako modeli generiraju 80–90 % koda, „AI‑first“ priče za investitore i regrutaciju. To donosi vidljivost, ali i stalnu izloženost kritici.
Drugi tabor će AI duboko integrirati, ali ga tretirati kao internu implementacijsku sitnicu. Prema van će komunicirati pouzdanost, vrijeme oporavka nakon kvara, sigurnosne testove, ISO i SOC certifikate – ne i koji im je asistent ispisao funkcije. Za europske regulatore i korporativne klijente ta će varijanta biti privlačnija.
Za korisnike će ključno pitanje sve manje biti „je li ovo napisala AI?“ a sve više „kako je ovaj sustav testiran, nadziran i tko za njega odgovara?“. Kako AI Act i DSA budu ulazili u punu primjenu, Bruxelles i nacionalna tijela – uključujući hrvatske regulatore – gurat će raspravu upravo u tom smjeru.
Rizik je da prejak javni pritisak potakne i odgovorne timove da sakriju korištenje AI‑ja umjesto da otvoreno grade standarde dobre prakse. To bi usporilo zajedničko učenje baš kad nam je najpotrebnije.
7. Zaključak
Sam pad Blueskyja bio je relativno beznačajan; signal koji šalje o povjerenju u razvoj uz pomoć AI‑ja nije. Ulazimo u fazu u kojoj otvoreno priznanje da koristite AI znači da u trenutku kvara gubite benefit sumnje – krivnja se automatski prebacuje na modele. Razuman odgovor nije glumiti da je sve „ručno pisano“, nego pokazati da su procesi, testovi i odgovornost čvrsti, bez obzira tko ili što tipka kod. Kao korisnici, trebali bismo manje gledati memove o „vibama“, a više tražiti konkretne informacije o tome kako je softver, o kojem ovisimo, zapravo izgrađen i kako se njime upravlja.



