Googlovi novi TPU 8 niso napad na Nvidio, temveč nova pogodba v oblaku

22. april 2026
5 min branja
Strežniške omare v podatkovnem centru z Googlovi AI čipi TPU

Naslov in uvod

Googlovi najnovejši čipi za umetno inteligenco niso neposredni napad na Nvidio, temveč premik, ki dolgoročno še bolj krepi moč hiperskalnih ponudnikov oblaka. Z novima čipoma TPU 8t za učenje modelov in TPU 8i za izvajanje (inference) Google ne poskuša zamenjati Nvidie, ampak preoblikovati razmerje med strankami in infrastrukturo.

V nadaljevanju povzemamo, kaj je Google dejansko napovedal, zakaj Nvidijine delnice zaradi tega ne bodo čez noč strmoglavile in kaj tak razvoj pomeni za evropske – in slovenske – uporabnike, podjetja in regulativo.


Novica na kratko

Kot poroča TechCrunch, je Google Cloud na konferenci Next predstavil osmo generacijo svojih namenskih pospeševalnikov za AI, t. i. Tensor Processing Units (TPU). Prvič jih deli na dva tipa: čip TPU 8t je optimiziran za učenje velikih modelov, TPU 8i pa za izvajanje – fazo, ko modeli dejansko odgovarjajo na uporabniške poizvedbe.

Po podatkih Googla so novi TPU‑ji do trikrat hitrejši pri učenju kot prejšnja generacija in ponujajo približno 80‑odstotno boljše razmerje zmogljivost/cena. Možno jih je združiti v ogromne gruče – v en sam sistem z več kot milijon čipi.

Ti čipi ne izrinjajo Nvidijinih GPU‑jev iz Google Clouda. TechCrunch navaja, da bo Google še naprej ponujal najnovejše Nvidijine čipe, vključno z prihajajočim Vera Rubin, ter z Nvidio sodeloval pri optimizaciji omrežnih tehnologij, npr. programsko definiranega omrežja Falcon, ki ga je Google leta 2023 odprl v okviru Open Compute Project.


Zakaj je to pomembno

Na prvi pogled gre za zgodbo »Google proti Nvidii«. V resnici gre za zgodbo »oblak proti vsem ostalim«.

TPU‑ji so na voljo izključno v Google Cloudu. Vsaka nova, učinkovitejša generacija pomeni večjo razliko v ceni in zmogljivosti med:

  • strankami, ki gradijo na Googlovi lastniški platformi, ter
  • tistimi, ki poskušajo tekmovati z lastnimi gru čami GPU‑jev ali s storitvami manjših ponudnikov oblaka.

Če Google resnično dosega trikrat hitrejše učenje in 80 % boljše razmerje zmogljivost/cena, se ekonomika oblačnega računalništva še bolj nagne v korist hiperskalcev. Za startup podjetja z modeli, SaaS ponudnike in notranje AI ekipe v korporacijah postane postavitev lastne infrastrukture vse težje upravičljiva – tako tehnično kot finančno.

Razcepitev na TPU 8t (učenje) in 8i (izvajanje) je strateško pomembna. Učenje in izvajanje imata zelo različne stroškovne profile:

  • učenje je sunkovito, kapitalsko intenzivno in eksperimentalno,
  • izvajanje pa stalno, predvidljivo in občutljivo na marže.

Z ločeno optimizacijo lahko Google bolje izkoristi strojno opremo – in dvigne lastne marže. Učenje prodaja kot »premijsko« zmogljivost, izvajanje pa kot cenovno učinkovito skaliranje. To mu daje veliko svobode pri oblikovanju cen.

Kdo izgublja? Kratkoročno ne Nvidia – Google še naprej naroča njene čipe v ogromnih količinah in z njo celo sooblikuje omrežno plast, da Nvidia v njegovem oblaku deluje še bolje.

Pritisk se bolj pozna pri:

  • manjših ponudnikih oblaka in on‑premise ponudnikih, ki takšne lastne silicijeve ekonomike ne morejo doseči,
  • strankah, ki danes dobijo hitrejšo in cenejšo AI, v zameno pa sprejemajo večjo odvisnost od enega ponudnika čipov, API‑jev in orodij.

Širša slika

TPU 8t/8i sta del širšega trenda vertikalne integracije v AI infrastrukturi.

Amazon ima čipe Trainium in Inferentia, Microsoft je napovedal lastni pospeševalnik Maia in strežniški procesor Cobalt, Meta razvija lastne čipe za priporočilne in generativne obremenitve. Vsi ti akterji pa še vedno kupujejo ogromne količine Nvidijine strojne opreme.

Vzorec je jasen:

  1. Nvidiini čipi ostajajo izhodišče, ki zagotavlja kompatibilnost z obstoječim ekosistemom (PyTorch, CUDA‑dedščina, množica orodij in modelov).
  2. Lastni čipi vstopijo tam, kjer so stroški najbolj boleči: pri velikanskem učenju in visokovolumnskem izvajanju.
  3. Nad vsem tem nastanejo lastniške storitve – upravljane platforme za učenje, vektorske baze, storitve za prilagajanje modelov – ki poskrbijo, da se stranka s samo strojno opremo sploh ne ukvarja.

Podobno smo videli že prej. V 2010‑ih so hiperskalci začeli graditi lastna omrežna stikala, prilagojene kartice in lastne vrste shranjevanja. Ko se je promet preselil v oblak, je bilo logično, da mu sledijo tudi namenski čipi.

Za Nvidio nevarnost ni en sam TPU 8, temveč postopno zmanjševanje deleža AI obremenitev, ki tečejo izključno na njenih čipih. Hiperskalci bodo morda še vedno trošili več denarja za Nvidijo kot kadarkoli, vendar bo vedno več AI ciklov teklo na njihovem lastnem siliciju.

Sčasoma to spremeni razmerje moči. Nvidia ostane ključni igralec ekosistema, a hiperskalci postajajo manj odvisni od kateregakoli dobavitelja in lažje pritiskajo na ceno, dobavne pogoje in razvojne načrte.

Zgovorno je, da Google in Nvidia skupaj razvijata omrežne tehnologije, kot je Falcon. Prava konkurenčna prednost ni samo v čipu, ampak v celotnem sistemu: od povezav med vozlišči do prevajalnikov, razporejanja obremenitev in zanesljivosti. Tam decide, kdo ostane dobičkonosen, ko bodo cene AI storitev začele padati.


Evropski in slovenski kot

Za evropske – in s tem tudi slovenske – organizacije je TPU 8 dvorezen meč.

Pozitivna plat: cenejši in gostejši AI izračun v Google Cloudu znižuje vstopni prag za slovenske startupe, raziskovalne skupine (npr. na UL, UM, UP) in podjetja, ki želijo trenirati ali poganjati napredne modele. To se lepo ujema z evropskimi cilji v okviru programa Digitalna Evropa in Akta o čipih.

Negativna plat: TPU‑ji so skrajna oblika vezave na enega ponudnika. Ne morete jih kupiti kot kartice in jih vgraditi v lastno gruča v Arnesovem ali podjetniškem podatkovnem centru; obstajajo samo znotraj Googlova oblaka.

To trči ob evropsko agendo digitalne suverenosti in pobude za evropske oblake (GAIA‑X ipd.), ki želijo, da ključna infrastruktura ni povsem v rokah nekaj ameriških gigantov. Pod okvirom GDPR, Akta o AI, DSA in DMA od podjetij pričakujemo prenosljivost, preglednost in možnost zamenjave ponudnika – TPU‑ji gredo ravno v nasprotno smer.

Evropski ponudniki oblaka, kot so OVHcloud, Scaleway, Hetzner ali Telekom Slovenije z regionalnimi storitvami, se morajo opreti na standardne GPU‑je in CPU‑je. Z Googlovo ekonomiko lastnih čipov se težko primerjajo, kar lahko še okrepi koncentracijo trga.

Za slovenska podjetja in javni sektor to pomeni, da bodo morali pri izbiri med »najcenejšim izračunom danes« in »možnostjo zamenjave jutri« tehtati tudi regulatorno tveganje in zahteve nadzornikov.


Pogled naprej

Prihodnost TPU 8 ni odvisna le od surovih zmogljivosti, temveč od poslovne strategije.

Google bo skoraj zagotovo uporabil TPU 8t/8i za agresivno oblikovanje cen AI storitev. Verjetni scenariji:

  • cenejši nivoji za učenje, če stranka pristane na uporabo TPU‑jev namesto GPU‑jev,
  • paketne AI storitve, kjer podlage (čip) sploh ne vidite in plačujete le na zahtevek ali token,
  • širitev razpoložljivosti TPU‑jev v evropskih regijah, da zadosti zahtevam po obdelavi podatkov znotraj EU.

V naslednjih 12–24 mesecih bo vredno spremljati:

  1. podporo ekosistema – kako enostavno je zagnati glavne ogrodja (PyTorch, JAX, TensorFlow) na TPU 8 in preseliti obstoječe modele;
  2. orodja, neodvisna od ponudnika – ali MLOps platforme in odprtokodna orodja obravnavajo TPU kot enakovreden cilj ali zgolj kot eksotiko v Google ekosistemu;
  3. reakcijo evropskih regulatorjev – predvsem v okviru DMA, kjer je tema zamenjave ponudnika in preprečevanja »zaklepanja« visoko na agendi.

Tudi za Google obstajajo tveganja. Če se bo trg premočno osredotočil na prenosljivost in odprte standarde – ali pa se bo odprtokodni hardverski ekosistem (npr. okrog RISC‑V pospeševalnikov) hitreje razvil – lahko postanejo zelo dragi lastni čipi breme. Še posebej, če se rast porabe za AI upočasni.

Nvidia bo medtem verjetno še nekaj časa prodala vse, kar lahko proizvede. Prava prelomnica ne bo en sam dogodek, temveč počasen premik razmerja med Nvidijinimi čipi in lastnimi pospeševalniki hiperskalcev.


Spodnja črta

TPU 8t in 8i ne podirata Nvidie; utrjujeta moč hiperskalnih oblakov nad verigo vrednosti AI. Uporabniki dobijo hitrejšo in cenejšo umetno inteligenco, v zameno pa večjo odvisnost od enega ponudnika silicija in programske opreme. Za slovenska in evropska podjetja, ki morajo upoštevati GDPR, Akt o AI in zahteve digitalne suverenosti, je ta kompromis posebej občutljiv.

Ključno vprašanje za prihodnja leta je: boste optimizirali za najnižjo ceno izračuna danes ali za svobodo izbire jutri?

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.