Snowflake proti zaklepu pri umetni inteligenci: zakaj je bitka za upravljalski sloj pomembnejša od izbire modela

3. februar 2026
5 min branja
Shema podatkovnega toka, ki povezuje podjetniške podatke z več modeli umetne inteligence v oblaku

1. Naslov in uvod

Dogovor Snowflake–OpenAI v višini 200 milijonov dolarjev ni le še ena velika novica iz Silicijeve doline. Je jasen signal, da se prava bitka pri generativni umetni inteligenci v podjetjih ne vodi več na ravni posameznih modelov, ampak na ravni sloja, ki upravlja podatke, pravila in varnost.

Snowflake se iz podatkovnega skladišča preoblači v nekakšen „kontrolni stolp“ za umetno inteligenco. V tem članku bom razčlenil, kaj dogovor v resnici pomeni, zakaj večmodelni pristop postaja privzeta možnost za velika podjetja in kaj to pomeni za evropski ter slovenski trg.

2. Novica na kratko

Kot poroča TechCrunch, je Snowflake sklenil večletni dogovor z OpenAI v vrednosti 200 milijonov dolarjev. S tem bodo lahko približno 12.600 Snowflakeovih strank dostopale do modelov OpenAI neposredno prek Snowflakea, ne glede na to, ali uporabljajo AWS, Azure ali Google Cloud. Zaposleni v Snowflakeu bodo interno uporabljali tudi ChatGPT Enterprise.

Podjetji bosta skupaj razvijali agentske rešitve in druge AI‑produkte, ki delujejo neposredno nad podatki, shranjenimi v Snowflakeu. Po poročanju TechCruncha je to že drugi Snowflakeov posel enake velikosti v kratkem času – decembra je namreč napovedal 200‑milijonsko partnerstvo tudi z Anthropicom. Podobno je januarja ServiceNow sklenil večletna dogovora tako z OpenAI kot z Anthropicom.

Snowflake za TechCrunch poudarja, da ostaja „modelno agnostičen“ in da poleg OpenAI in Anthropica omogoča še dostop do modelov Googla, Mete in drugih ponudnikov.

3. Zakaj je to pomembno: kdo bo upravljal „semaforje“ za AI

Na prvi pogled je zmagovalec novic OpenAI, ki si zagotavlja nov, velik kanal do podjetij. Na drugi pogled pa je dolgoročni zmagovalec prav Snowflake.

Snowflake svojim strankam sporoča: „Vaše podatke varno konsolidirajte pri nas, mi pa bomo izbrali pravi model za vsako nalogo.“ S tem postaja manj podatkovno skladišče in bolj upravljalska plast za umetno inteligenco — svojevrsten semafor, ki preusmerja promet med podatki in modeli.

Ključne posledice:

  • Snowflake se diferencira od ponudnikov tipa BigQuery ali Redshift. Ne prodaja le prostora za podatke, ampak celoten AI‑ekosistem nad njimi.
  • OpenAI pridobi neposreden dostop do tisočev velikih strank, ne da bi moral reševati vsako integracijo posebej.
  • Podjetja dobijo izbiro in pogajalsko moč. CxO‑jem je bistveno lažje zagovarjati večmodelni pristop kot stavo na enega samega ponudnika.

Kdo lahko izgubi?

  • Ponudniki, ki vztrajajo pri eni sami „polni skladovnici“ (naš oblak, naši modeli, naša orodja), so nenadoma videti manj prilagodljivi.
  • Ekipe, ki so se interne zavezale samo enemu modelu, bodo morale razložiti, zakaj ignorirajo alternative, čeprav platforme, kot je Snowflake, omogočajo relativno enostavno primerjavo.

Bistvo: v podjetjih se odločanje o AI‑modelih spreminja iz enkratnega izbora v stalno upravljanje portfelja — podobno kot pri investiranju, kjer sredstva med različnimi naložbami nenehno prerazporejate.

4. Širša slika: AI vse bolj spominja na oblak, ne na spletni iskalnik

Dolgo je prevladovala teza, da bo trg generativne AI podoben iskanju: en ali dva globalna zmagovalca in vsi ostali daleč zadaj. Val večmilijonskih večletnih dogovorov, kot so jih sklenili Snowflake, ServiceNow in drugi, nakazuje drugačen scenarij.

TechCrunch omenja dve anketi tveganih skladov z nasprotujočimi si rezultati: ena kaže prednost Anthropica, druga OpenAI. Namesto da bi se ukvarjali z natančnimi odstotki, je pomembnejša ugotovitev, da veliko podjetij uporablja oba — in še koga povrhu.

Vzorec smo že videli:

  • pri javnih oblakih številna podjetja uporabljajo kombinacijo AWS, Azure in Google Clouda;
  • pri podatkovnih zbirkah je povsem normalno soobstajanje Snowflakea, Postgresa, MongoDB in drugih;
  • tudi slovenska podjetja pogosto kombinirajo lastne strežnike in javni oblak.

Zelo verjetno bo enako pri modelih generativne AI. Nekateri bodo boljši pri kodiranju, drugi pri analizi daljših dokumentov, tretji pri večjezični podpori ali pri nišnih področjih, kot sta medicina ali pravo.

Iz tega sledi pomemben premik: resnična strateška pozicija ni v posameznem modelu, temveč v sloju, ki nadzoruje, kateri model kdaj dostopa do katerih podatkov, pod katerimi pogoji.

Zato se Snowflake, ServiceNow, Salesforce, SAP, Oracle in drugi tako agresivno pozicionirajo kot „AI‑platforme“ nad oblakom – ne želijo biti samo ena izmed aplikacij, temveč mesto, kjer se križajo podatki, identitete in modeli.

5. Evropski in slovenski kot: regulacija kot vzvod za večmodelni pristop

Evropska podjetja – in z njimi slovenska – se pri AI ne spopadajo le s tehničnimi vprašanji, ampak tudi s precej strožjim regulativnim okvirjem.

GDPR, prihajajoči Akt o umetni inteligenci EU (AI Act), pa tudi panožni predpisi v financah in zdravstvu postavljajo visoke zahteve glede varstva podatkov, sledljivosti modelov in upravljanja tveganj. To je eden od razlogov, zakaj v Evropi močno odmevajo rešitve, ki omogočajo lokalno obdelavo podatkov in pregleden nadzor nad tem, kateri model uporablja katere podatke.

Snowflakeov večmodelni pristop se s tem lepo ujema – vsaj na papirju. A evropske (in slovenske) stranke bodo pričakovale še nekaj dodatnih elementov:

  • Jasno podatkovno suverenost. Ali lahko zagotovijo, da se podatki, shranjeni v evropskih regijah, ne prenašajo v ZDA za učenje ali beleženje? Kako se logira uporaba modelov?
  • Integracija evropskih modelov. Podjetja bodo vse pogosteje spraševala po možnostih, kot so Mistral, Aleph Alpha ali odprtokodni modeli, ki tečejo na evropskih oblakih (npr. OVHcloud) ali celo v lastnih podatkovnih centrih.
  • Napredno upravljanje tveganj. Za slovenske banke, zavarovalnice ali javno upravo zgolj „pametni asistent“ ni dovolj; potrebne so nadzorne plošče, revizijske sledi, pregledi pristranskosti in postopki človeškega nadzora.

Za domači ekosistem – od večjih podjetij do ljubljanskih in mariborskih startupov – to odpira prostor za rešitve na področju t. i. LLMOps, nadzora nad modeli in specializiranih vertikalnih agentov, ki bodo tekli nad Snowflakeom ali alternativnimi platformami.

6. Pogled naprej: od vprašanja „kateri model?“ do vprašanja „kateri posrednik?“

V naslednjih nekaj letih se bo ključna dilema za vodstva podjetij premaknila. Namesto „Ali naj izberemo OpenAI ali Anthropica?“ bo vprašanje bolj: „Katero platformo želimo kot osrednji posredniški sloj med našimi podatki in številnimi modeli?“

Možni scenariji:

  • Avtomatsko usmerjanje zahtev. Platforme tipa Snowflake bodo ponujale politke tipa: „za naloge, kjer je ključna natančnost, uporabi dražji model A; za masovne povprečno zahtevne poizvedbe uporabi cenejši model B“.
  • Stroškovni šok in optimizacija. Ko bodo pilotni projekti prerasli v produkcijo, bodo finančni oddelki začeli zelo natančno spraševati po stroških klicev modelov. To bo pospešilo uporabe odprtih ali lastno prilagojenih modelov tam, kjer so „dovolj dobri“.
  • Rast domen­skih modelov. Večja podjetja v Sloveniji in širši regiji (npr. v financah, industriji 4.0, logistiki) bodo razmišljala o lastnih modelih, naučenih na notranjih podatkih in integriranih v isti posredniški sloj kot ponudniki tipa OpenAI.
  • Regulativni pritiski. Z implementacijo AI Acta bo nujna natančna evidenca, kateri model je bil uporabljen pri kateri odločitvi. To praktično zahteva centraliziran orkestracijski sloj.

Največja neznanka za OpenAI in konkurente je, ali jih bo trg dolgoročno dojemal kot nujno infrastrukturo z visoko dodano vrednostjo ali kot menjljive „motorje“ pod pokrovom. V prvem primeru bodo še naprej narekovali pogoje. V drugem bo večina marže odtekla k tistim, ki obvladujejo podatke in orkestracijo.

7. Spodnja črta

Dogovor Snowflake–OpenAI ni predvsem zgodba o tem, kateri model je boljši, ampak o tem, kdo bo v podjetjih upravljal promet med modeli in podatki. Vse kaže, da se oblikuje večmodelni, večoblačni svet, v katerem je ključna odločitev prav izbor orkestracijske platforme.

Za slovenske CIO‑je in podatkovne vodje zato vprašanje ni več le „kateri model izbrati“, temveč: „Kateri sloj zaupamo, da bo naslednjih deset let varno in pregledno usmerjal naše podatke med različnimi modeli?“ Odgovor na to vprašanje bo dolgoročno pomembnejši od izbire posameznega modela danes.

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.