Google Cloud startupovima poručuje: račun za AI je nova lampica upozorenja
U doba generativne umjetne inteligencije mnogi startupovi pokazuju impresivne demo‑e, ali puno rjeđe – svoje račune za oblak. U novoj epizodi TechCrunchovog podcasta Equity Darren Mowry, potpredsjednik za globalne startupe u Google Cloudu, koristi jednostavnu, ali bolnu usporedbu: morate primijetiti „check engine“ lampicu na svojoj infrastrukturi prije nego što motor otkaže.
U ovoj analizi razlažem što se zapravo krije iza Googleove ofenzive prema AI startupovima, zašto su infrastrukturne odluke postale egzistencijalne i kako bi europski – posebno hrvatski i regionalni – osnivači trebali razmišljati o oblaku, kreditima i hardveru prije nego što se zalete predaleko.
Vijest ukratko
Prema podcastu Equity koji prenosi TechCrunch, Darren Mowry, potpredsjednik za globalne startupe u Google Cloudu, u razgovoru s novinarkom Rebeckom Bellan objašnjava kako rane tehničke odluke mogu presuditi hoće li AI startup uspješno skalirati ili će se „slomiti“ pod vlastitom infrastrukturom.
Kako navodi TechCrunch, razgovor se vrti oko tri ključne teme: utrke između Google Clouda, AWS‑a i Microsofta za osvajanje AI‑native startupova; utjecaja izbora hardvera (TPU naspram GPU); te uloge cloud kredita i gotovih modela, koji često zaklanjaju stvarnu strukturu troškova. Mowry ističe i koji vertikalni segmenti AI‑a danas pokazuju stvarni rast – primjerice biotehnologija, climate tech, developerski alati i tzv. „world models“.
Središnji dio su „crvene zastavice“ koje signaliziraju da startup vjerojatno neće uspjeti, a Mowry ih uspoređuje s lampicom „provjerite motor“ – ranim upozorenjima koja mnogi osnivači ignoriraju dok troškovi infrastrukture i manjak product‑market fita ne postanu gotovo nerješivi.
Zašto je to važno
Poruka između redaka glasi: u eri AI‑a infrastruktura više nije samo tehnička stavka u pozadini, nego dio strateškog DNK‑a tvrtke.
Dobitnici:
- Veliki cloud igrači (Google, AWS, Microsoft) koji agresivnim kreditima, pristupom GPU/TPU resursima i vlastitim modelima rano vežu startupe za svoj ekosustav.
- Startupovi koji infrastrukturu tretiraju kao prvorazredni problem, uz jasan nadzor performansi, troškova i prenosivosti između pružatelja usluga.
Gubitnici:
- Osnivači koji besplatne kredite brkaju s product‑market fitom. Kada krediti nestanu, isplivaju stvarni unit economics – često vrlo neugodni.
- Investitori koji financiraju rast bez razumijevanja infrastrukturnog rizika. Sjajan LLM demo lako prikrije katastrofalnu cost‑to‑serve krivulju.
Praktična posljedica je da se AI startupovi guraju prema što bržem rastu korištenja, prije nego što su stabilizirali arhitekturu, cijene i marže. Pritisak da se pokaže „AI trakcija“ znači da se često bira prvi stack koji nudi GPU‑e i modele – ne nužno onaj koji dugoročno ima smisla.
Zato je metafora „lampice upozorenja“ pogođena. Startupovi trebaju nadzorne ploče koje u gotovo realnom vremenu prikazuju što se događa s latencijom, propusnošću i, prije svega, troškom po zahtjevu ili po tokenu. Odabir clouda, regije, tipa čipa i modela u trećem mjesecu itekako utječe na mogućnost zdrave marže u trećoj godini.
Za Google je ovo ujedno pokušaj repositioninga: želi biti percipiran ne samo kao „treći cloud“, nego kao partner koji razumije AI‑native startupe i pomaže im preživjeti kada besplatni krediti prestanu dolaziti.
Šira slika
Mowryjeve poruke lijepo se uklapaju u nekoliko većih trendova.
Prvo, hiperskalni cloudovi penju se uz AI stack. AWS s Bedrockom, Microsoft s Azureom i OpenAI‑jem, Google Cloud s Vertex AI‑jem i TPU strategijom – svi žele više od pukog hostinga. Cilj je kontrolirati cijeli lanac: od računalnih resursa i pohrane do modela, vektorskih baza, orkestracije i nadzora.
Drugo, ekonomika generativnog AI‑a sudara se sa stvarnošću. Posljednje dvije godine dokazale su što je moguće; sljedeće dvije moraju dokazati što je isplativo. To podrazumijeva optimizaciju tokena, kontekstnih prozora, cachiranja, fine‑tuninga i iskorištenosti hardvera. Startupovi koji su infrastrukturu prepustili provideru, a sami je slabo razumiju, sada otkrivaju da im bruto marže jednostavno ne funkcioniraju.
Treće, događa se pomak moći u hardveru. Nvidia i dalje dominira, ali Googleovi TPU‑i, Amazonovi Trainium/Inferentia i niz specijaliziranih AI čipova ruše dogmu da je GPU jedina razumna opcija. Za rane faze dilema TPU naspram GPU sažima klasičan trade‑off: snažna optimizacija za jednu platformu uz bolju učinkovitost ili „porez na prenosivost“ u zamjenu za mogućnost promjene kasnije.
Povijest se ponavlja: u mobilnoj eri startupovi koji su se previše oslonili na ekosustave poput Facebook Platforma, BlackBerryja ili Windows Phonea platili su visoku cijenu kada su ti sustavi promijenili smjer. Današnji AI ekvivalent je vezivanje za potpuno vlasnički stack jednog clouda – kratkoročno ubrzava, dugoročno ograničava.
Europski i regionalni kut
U Europi, a time i u Hrvatskoj, sve to prolazi kroz dodatni filtar: regulativu i kulturu zaštite podataka.
GDPR, Digital Services Act, Digital Markets Act, Data Act i budući EU AI Act guraju poduzeća prema objašnjivosti, minimizaciji podataka, portabilnosti i smanjenju ovisnosti o „gatekeeperima“. Potpuni oslonac na jednog američkog hiperskalera može ubrzati razvoj, ali nosi reputacijski i pravni rizik.
Zato sve više pažnje dobivaju igrači poput OVHclouda, Scalewaya, te regionalne cloud ponude velikih telekoma, kao i inicijativa GAIA‑X. Pritom se pojavljuju i europski pružatelji open‑source modela te specijalizirani cloudovi za regulirane sektore (zdravstvo, financije, javna uprava) – što je posebno relevantno za hrvatske startupe koji ciljaju klijente u Njemačkoj, Austriji ili Skandinaviji.
Za Zagreb i širu SEE regiju, gdje su budžeti ograničeni, Mowryjeva „lampica upozorenja“ ima još jednu dimenziju: trošak prilike. Pogrešan izbor infrastrukture danas ne znači samo veći račun, nego i potencijalno odbijene suradnje s bankama, osiguravateljima ili javnim sektorom koji traže jasne odgovore na pitanja lokacije podataka, audit traila i mogućnosti promjene pružatelja usluge.
Pogled unaprijed
Vrlo je vjerojatno da će se metafora „check engine“ pretočiti u novu klasu alata. Današnji FinOps i upravljanje cloud troškovima evoluirat će u nadzor ekonomske strane AI‑a – panele koji uvezuju tokene, promptove, kontekst i pozive na modele s marginama u gotovo realnom vremenu.
U sljedećih 12–24 mjeseca vrijedi pratiti:
- Širenje multi‑cloud i hibridnih AI arhitektura. Trenirati tamo gdje je jeftinije, posluživati tamo gdje to zahtijevaju latencija, regulativa ili ključni kupci.
- Oštrija pitanja investitora. „Što se događa s vašom bruto maržom kad krediti isteknu?“ i „Koliko vas stvarno košta promjena clouda?“ postat će standard na board sastancima.
- Cloud providere koji pakiraju usklađenost kao uslugu. Kako bi osvojili Europu, hiperskaleri će nuditi AI‑Act‑ready logiranje, dokumentaciju modela, upravljanje rizicima i audit kao dio platforme.
Za Google je fokus na startupove istodobno prilika i nužnost. Ako uspije svoje TPU‑e i AI stack pozicionirati kao ne samo brze, već i ekonomski predvidljive, može početi uvjeravati timove koji danas automatski biraju kombinaciju „AWS + Nvidia + OpenAI“. Ako ne uspije, ostat će treća opcija na tržištu u kojem pobjednik uzima većinu.
Veliko otvoreno pitanje glasi: mogu li startupovi istovremeno dizajnirati za prenosivost i držati AI tempo? Alati su sve bolji, ali iskušenje da se koristi svaki vlasnički „prečac“ jednog clouda ogromno je. Upravo će ta napetost – brzina danas naspram slobode sutra – odlučiti mnoge priče o uspjehu i propasti u nadolazećim godinama.
Zaključak
Naglasak Google Clouda na „lampicama upozorenja“ za startupe odražava jednostavnu istinu: infrastruktura za AI danas je jedan od glavnih faktora preživljavanja mlade tvrtke. Startupovi koji kredite vide kao gorivo, a ne kao besplatan novac, i koji jednako pažljivo mjere ekonomiku modela kao i rast korisnika, imat će prostor za manevar – i prema cloudu i prema investitorima. Ostali će shvatiti da im motor zaribava tek kad već budu u brzoj traci. Pitanje je: gledate li vi uopće svoj instrument‑panel?



