Naslov i uvod
Na naslovnicama dominira priča o nestašici GPU-ova, ali unutar većine Kubernetes klastera slika je obrnuta: skupa infrastruktura stoji poluprazna, resursi su nerealno visoko podešeni, a računi za oblak rastu bez jasnog razloga. Krug financiranja od 130 milijuna dolara za ScaleOps jasno pokazuje da investitori sve više vjeruju kako je stvarni problem AI-ja loše upravljanje, a ne manjak hardvera.
U ovom komentaru nećemo prepričavati vijest, nego analizirati zašto je „autonomna infrastruktura” sljedeći logičan korak, kako to mijenja ulogu DevOps timova, što znači za pružatelje oblaka i kakve prilike otvara za tvrtke u Hrvatskoj i široj regiji SEE.
Vijest ukratko
Kako piše TechCrunch, ScaleOps je prikupio 130 milijuna američkih dolara u Series C rundi uz vrijednost tvrtke od 800 milijuna dolara. Tvrtka sa sjedištem u New Yorku i korijenima u Izraelu, koju je 2022. osnovao bivši inženjer Run:ai Yodar Shafrir, razvija softver koji automatski upravlja računalnim resursima za AI i druge radne opterećenja na Kubernetesu.
ScaleOpsov sustav u stvarnom vremenu prilagođava dodjelu CPU-a, GPU-a, memorije, pohrane i mreže, s ciljem da se produkcijska okruženja optimiziraju bez ručnih intervencija DevOps timova. Tvrtka tvrdi da na taj način može smanjiti troškove oblačne i AI infrastrukture i do 80 %.
Prema TechCrunchu, rundu vodi Insight Partners, uz sudjelovanje dosadašnjih ulagača kao što su Lightspeed Venture Partners, NFX, Glilot Capital Partners i Picture Capital. Među klijentima su velika poduzeća poput Adobea, Wiza, DocuSigna, Salesforcea i Coupe. Od Series B runde u studenom 2024. (58 milijuna dolara) ScaleOps bilježi više od 450 % godišnjeg rasta prihoda i utrostručenje broja zaposlenih, a do kraja godine planira još jedno višestruko povećanje tima.
Zašto je to važno
Ključ ove priče nije samo visina runde, nego promjena perspektive: ograničavajući faktor AI-ja postaje ljudska sposobnost da se nosi s kompleksnošću infrastrukture.
Velika poduzeća danas istovremeno vrte batch treniranje modela, analitiku i inferencijske servise u stvarnom vremenu – sve to često na istim Kubernetes klasterima. Kubernetes je moćan, ali u srži statičan: jednom postavljeni requests, limits i autoscaling pravila često godinama ostanu nepromijenjeni. U međuvremenu promet, modeli i funkcionalnosti sustava stalno evoluiraju.
Rezultat je kronična prekomjerna rezervacija resursa “za svaki slučaj”, uz povremene probleme s performansama kada se pogodi kriva kombinacija opterećenja. DevOps i SRE timovi pokušavaju ručno gasiti požare, no broj servisa i klastera raste brže od broja inženjera.
Ako ScaleOps ispuni obećanja, dobitnici su:
- Financijski odjeli i FinOps timovi, koji dobivaju alat koji realno može srezati troškove, a ne samo ih ljepše prikazati.
- Platform i DevOps timovi, kojima se oslobađa vrijeme za strateškije automatizacije umjesto beskonačnog podešavanja resursa.
- AI timovi, koji mogu računati na stabilnije performanse bez detaljnog znanja o Kubernetesu.
Gubitnici su prije svega rješenja koja se zaustavljaju na monitoringu bez akcije. Ako CIO može kupiti softver koji ne samo da mjeri, nego i sam optimizira, nadzorne ploče prestaju biti krajnji proizvod i postaju tek jedan ulazni podatak.
Za hiperskale (AWS, Azure, Google Cloud) efekt je dvosmislen: manje rasipanja po radnom opterećenju može kratkoročno usporiti rast prihoda, ali dugoročno veća učinkovitost obično znači – više projekata i više ukupne potrošnje.
Šira slika
ScaleOps se uklapa u nekoliko jačih struja koje već godinama oblikuju tržište.
1. FinOps traži automatsku „akciju”, ne samo izvještaje.
Prva faza FinOpsa donijela je transparentnost: tagiranje resursa, troškovne centre, budžete, alarmiranje. No mnoga poduzeća danas znaju gdje troše previše, ali nemaju kapaciteta ni hrabrosti da stalno ručno podešavaju konfiguracije. Sljedeća faza je neizbježna: sloj koji automatski reagira na podatke.
2. AI se standardizira na Kubernetesu.
Iako se veliko treniranje modela često odvija na specijaliziranim platformama, svaki ozbiljan AI sustav okružen je API-jevima, bazama podataka, vektorskim indeksima, pipelineovima i servisima za inferenciju. Sve to sve češće živi na Kubernetessu, bilo kod hiperskala, bilo u privatnim podatkovnim centrima. Time K8s postaje prirodna točka za „mozak” koji optimizira cijelu sliku.
3. Od ručnog SRE zanata prema „self-driving” infrastrukturi.
Povijesno smo taj prijelaz već vidjeli u bazama podataka i mrežnim protokolima, koji su prešli s ručnog tuninga na sofisticirane optimizatore. Upravljanje resursima u oblaku još je uvijek u fazi gdje puno toga ovisi o neformalnom znanju pojedinih inženjera. To je skupo, sporo i teško skalabilno.
Konkurencija u ovom prostoru već postoji: Cast AI, Kubecost, Spot i drugi nude razne pristupe optimizaciji troškova i korištenja. No mnoga od tih rješenja ostaju na razini preporuka – netko ih ipak mora ručno primijeniti i preuzeti odgovornost. ScaleOps cilja korak dalje: postati svojevrsni autopilot za produkcijske klastere.
Time se otvara pitanje povjerenja. Jedna pogrešna optimizacija koja sruši ključni sustav banke ili telekoma može usporiti cijelu industriju. No tko prvi uspije pokazati da njegov „autopilot” radi godinama bez incidenata, dobit će duboko ukopan, teško zamjenjiv položaj u infrastrukturi klijenata.
Europski i regionalni pogled (Hrvatska, SEE)
U europskom kontekstu učinkovitost AI infrastrukture sve se manje promatra samo kroz prizmu troška, a sve više i kroz regulative i energetiku.
S jedne strane, tu su EU propisi: Opća uredba o zaštiti podataka (GDPR), Akt o digitalnim uslugama (DSA), Akt o digitalnim tržištima (DMA) i nadolazeći Akt o umjetnoj inteligenciji. Velike organizacije morat će ulagati u usklađivanje, nadzor i dokumentiranje AI sustava. To su troškovi koje je teško izbjeći, pa će pritisak da se uštedi na infrastrukturi samo rasti.
S druge strane, energetska slika. Data centri troše sve više struje, a EU kroz Zelenu agendu i izvještavanje prema CSRD-u gura kompanije prema smanjenju ugljičnog otiska, uključujući digitalnu infrastrukturu. Alat koji može dokazati bolju iskoristivost GPU-ova i CPU-a time postaje i argument pred dioničarima i regulatorima.
Za Hrvatsku i regiju JI Europe postoji još jedna dimenzija: veličina tržišta i manjak specijaliziranih timova. Većina lokalnih tvrtki nema luksuz velikih SRE/DevOps odjela, ali sve više razmišlja o AI rješenjima – od banaka i osiguranja u Zagrebu, preko logistike i turizma, do javnog sektora. Autonomna optimizacija Kubernetes klastera dugoročno se bolje uklapa u tu realnost nego očekivanje da će svatko zaposliti desetak vrhunskih Kubernetes stručnjaka.
Istovremeno, razvoj regionalnih cloud ponuda (npr. nacionalni i telekom oblaci u Hrvatskoj, Sloveniji, Srbiji) često se temelji upravo na Kubernetesu. Neovisna optimizacijska platforma koja radi preko više pružatelja oblaka mogla bi postati važan dio njihove ponude.
Pogled unaprijed
Pitanje nije hoće li infrastruktura postati autonomnija, nego tko će kontrolirati „mozak” iznad Kubernetesa.
U sljedećih tri do pet godina realno je očekivati:
- Tehnološko širenje: od prilagodbe resursa unutar jednog klastera prema donošenju odluka o rasporedu između regija i oblaka, izboru između on-prem i oblaka, pa čak i uzimanje u obzir cijene energije i ugljičnog otiska.
- Konsolidaciju tržišta: veći igrači (hiperskali, proizvođači GPU-ova, dobavljači alata za nadzor) mogli bi krenuti u akvizicije kako bi ovakve mogućnosti ugradili izravno u svoje platforme.
- Regulatorni interes: kako EU već sada raspravlja o transparentnosti odluka koje donose AI modeli, nije nemoguće da se slična očekivanja pojave i za autonomne sustave koji upravljaju kritičnom infrastrukturom.
Za hrvatske tvrtke bit će ključno pratiti nekoliko stvari:
- Hoće li ScaleOps ili konkurenti izgraditi stvarnu prisutnost u regiji – partnere, podršku, lokaliziranu dokumentaciju?
- Kako će se ovakva rješenja uklopiti u postojeće inicijative digitalne transformacije i u projekte suverenih ili javnih oblaka?
- Koliko će poduzeća odlučiti ovo znanje zadržati „in-house”, a koliko prepustiti vanjskim vendorima?
Najveći rizik je kriza povjerenja nakon jednog većeg incidenta optimizacije. Najveća prilika je postati nevidljiva, ali ključna komponenta koja omogućuje da AI projekti uopće budu isplativi.
Zaključak
Runda od 130 milijuna dolara za ScaleOps znak je trezvenije faze AI-booma: od mantre „kupimo još GPU-ova” polako prelazimo na pitanje „koliko pametno koristimo ono što već imamo”. Autonomna optimizacija Kubernetes infrastrukture vrlo vjerojatno će u sljedećim godinama postati standardni zahtjev za ozbiljne AI produkcijske sustave, osobito u Europi. Otvoreno ostaje tko će tu ključnu optimizacijsku sloj kontrolirati – i hoće li poduzeća u Hrvatskoj i regiji tu sposobnost tretirati kao stratešku, ili tek kao još jedan SaaS na računu za oblak.



