Ozko grlo generativne umetne inteligence ni več GPU, temveč električno omrežje

16. februar 2026
5 min branja
Shema podatkovnega centra, ki prikazuje pot elektrike od omrežja do GPU strežnikov

1. Naslov in uvod

O zadnji generaciji GPU‑jev se govori vsak dan, o kilovatih precej redkeje. Vendar prav elektrika – ne več čipi – vse pogosteje določa, kako daleč se lahko še širi umetna inteligenca. Ko hiperskala podatkovni centri vstopajo v boj za vsak megavat, postaja povsem nova plast infrastrukture strateška: kako učinkovito spraviti energijo iz omrežja do samega GPU‑ja.

Po poročanju TechCruncha je indijski startup C2i Semiconductors zbral svež kapital prav za ta problem. A zgodba ni pomembna le za indijski ekosistem. Gre za simptom večje spremembe: vrednost v AI‑stogu se seli v “nevidne” plasti – napajanje, hlajenje in energijsko učinkovitost – kjer lahko 10 % prihranka elektrike pomeni razliko med dobičkom in izgubo.

2. Novica na kratko

Kot poroča TechCrunch, je bengalursko podjetje C2i Semiconductors zbralo 15 milijonov dolarjev v seriji A. Runo je vodil sklad Peak XV Partners, pridružila sta se Yali Deeptech in TDK Ventures. Skupno je komaj dve leti star podjetniški projekt zbral 19 milijonov dolarjev.

C2i razvija sistemsko rešitev napajanja, ki se razteza od visokonavoltnostnega vodila podatkovnega centra do samega pakiranja GPU‑jev. Namesto da bi optimizirali posamične napajalnike, želijo inženirji obravnavati pretvorbo napetosti, krmiljenje in pakiranje kot enotno platformo »od omrežja do GPU«.

Po navedbah TechCruncha podjetje ocenjuje, da lahko z integriranim pristopom zmanjša izgube pri pretvorbi energije za približno deset odstotnih točk – kar pomeni okoli 100 kilovatov prihranka pri vsakem megavatu porabe. TechCrunch se pri tem sklicuje na analize BloombergNEF in Goldman Sachs, ki napovedujejo, da bi se poraba elektrike v podatkovnih centrih lahko do leta 2035 skoraj potrojila, do 2030 pa narasla za okoli 175 % glede na leto 2023.

Prvi čipi se naj bi iz proizvodnje vrnili med aprilom in junijem, sledili bodo pilotski projekti z velikimi operaterji podatkovnih centrov v ZDA in Aziji.

3. Zakaj je to pomembno

Ta naložba ni le še ena deep‑tech runda, temveč signal, da se ekonomika AI preusmerja iz »koliko GPU‑jev imate« v »koliko uporabnih FLOPS dobite iz vsakega megavata«. Za hiperskale in oblačne ponudnike po svetu – vključno s tistimi, iz katerih storitev živijo slovenska podjetja – so po začetni investiciji v strojno opremo in objekte glavni strošek prav energija in z njo povezano hlajenje.

Prihranek 10 % pri pretvorbi pomeni, da pri isti priključni moči napajate več GPU‑jev ali pa zmanjšate račun za elektriko. Na velikih farmah to niso drobiž, ampak potencialno desetine milijonov dolarjev v življenjski dobi enega podatkovnega centra. Posredna korist: manj odvečne toplote olajša hlajenje in omogoči še višje gostote opreme.

Zmagovalci so jasni. Oblaki in ponudniki AI‑infrastrukture, ki takšne rešitve hitro vgradijo, dobijo konkurenčno prednost pri stroških in podnebnih kazalnikih. Tudi uporabniki – od slovenskih fintechov do raziskovalnih skupin – dolgoročno plačajo manj za enako količino računske moči.

Potencialni poraženci so tradicionalni dobavitelji napajalnikov na ravni ohišja ali strežniške plošče, ki bodo težko konkurirali sistemskim pristopom. Regije z napetimi elektroenergetskimi omrežji – v Evropi to čutimo v več državah – bodo še težje upravičile gradnjo novih AI‑podatkovnih centrov, če ne bodo bistveno izboljšale učinkovitosti.

4. Širša slika

Zgodba C2i se lepo vklaplja v širši trend temeljite prenove zasnove podatkovnih centrov. V zadnjem desetletju smo šli iz razmeroma »udobnih« strežnikov, hlajenih z zrakom, na gosto zapakirane GPU‑gručne sisteme z direktnim vodnim hlajenjem, 48‑voltno (in višjo) DC‑distribucijo in specializiranimi napajalnimi verigami.

Na računski strani Nvidia, AMD in veliki oblačni ponudniki vlagajo milijarde v pospeševalnike in medsebojne povezave. A vsak nov skok zmogljivosti pride z višjo porabo. Superračunalniški AI‑klastri že danes zahtevajo desetine megavatov. Ker se klasično skaliranje porabe na tranzistor praktično ne izboljšuje več, se energijski odtis na FLOP slabša.

Temu sledijo inovacije pri hlajenju (tekočinsko hlajenje, potopitvene kopeli) in umeščanju v prostor (severna Evropa z vetrno in hidro energijo, bližina jedrskih elektrarn). Manj vidna, a nič manj pomembna plast je prav veriga pretvorbe napetosti – od visokonapetostnega priključka do nekaj voltov in nato milivoltov, s katerimi se napajajo jedra GPU.

TechCrunch navaja, da se danes na tej poti lahko izgubi 15–20 % energije v obliki toplote. To je na ravni industrije gigavatov povsem »zastonj« ogrevanja. Startup, ki napade prav to točko, se zato logično pojavi ravno zdaj, ko je bolečina pri računu za elektriko postala dovolj velika, da so tudi zelo konservativni kupci pripravljeni razmišljati bolj tvegano in dolgoročno.

5. Evropski in slovenski pogled

Evropa se že srečuje z omejitvami omrežja. Na Irskem, Nizozemskem in v nekaterih nemških zveznih deželah so bili projekti podatkovnih centrov zamrznjeni zaradi skrbi za zanesljivost oskrbe in podnebnih ciljev. Hkrati Evropska komisija zahteva, da digitalna infrastruktura dobi bistveno boljši energijski izkoristek.

Čeprav Slovenija nima svojih hiperskalnih centrov, je popolnoma odvisna od tujih. Vsaka izboljšava učinkovitosti na ravni “grid‑to‑GPU” bo srednjeročno vplivala tudi na stroške storitev, ki jih plačujejo slovenska podjetja, javna uprava ali univerze v oblaku.

Evropski regulativni okvir (od uredb o energetski učinkovitosti do EU taksonomije in poročanja o trajnosti) že danes pritiska na ponudnike, da transparentno prikazujejo porabo in ukrepe za zmanjšanje emisij. Prihodnji podzakonski akti v okviru EU AI Act bodo verjetno dodatno poudarili odgovorno rabo virov pri velikih modelih. Rešitve, ki merljivo zmanjšajo izgube, bodo zato konkurenčna prednost, ne le strošek.

Hkrati ima Evropa močne akterje na področju močnostne elektronike (Infineon, STMicroelectronics, ABB …). Vprašanje je, ali bodo pripravljeni ponuditi podobno integrirane sisteme ali bo evropski trg odvisen od rešitev, razvitih v ZDA in Aziji – zdaj očitno tudi v Indiji.

6. Pogled naprej

Ključni preizkus za C2i prihaja v naslednjih mesecih. Kot navaja TechCrunch, bodo prvi čipi iz proizvodnje omogočili realne meritve pri strankah: kakšne so dejanske izgube pri različnih obremenitvah, kako se obnašajo pri napakah omrežja, kako zahtevno je uvajanje v obstoječe arhitekture.

Tudi če bodo rezultati dobri, so cikli uvajanja v podatkovne centre dolgi. Večji operaterji razmišljajo v triletnih do petletnih obdobjih, še posebej, ko gre za tako kritičen sloj, kot je napajanje. Realistično lahko pričakujemo, da bodo prvi komercialni sistemi v širši rabi šele v drugi polovici tega desetletja.

Za evropske (in slovenske) odločevalce se splača spremljati tri signale: ali se veliki proizvajalci močnostne elektronike odzovejo s svojimi rešitvami; ali oblačni ponudniki začnejo v poročilih poudarjati učinkovitost pretvorbe energije; in ali regulatorji začnejo v pogoje za nove podatkovne centre vgrajevati minimalne standarde za energijsko učinkovitost po celotni verigi.

Priložnost je očitna: AI bo v vsakem primeru rasla, vprašanje je, ali bomo to rast povezali s proporcionalno rastjo emisij in rabe elektrike ali jo bomo omejili s pametnejšim dizajnom. Startupi, kot je C2i, ponujajo en možen odgovor.

7. Bistvo

Razcvet generativne umetne inteligence se vse bolj zaletava v mejo, ki je ne moremo nadgraditi z novim čipom ali programskim trikom: v elektroenergetsko omrežje. Primer C2i, o katerem poroča TechCrunch, kaže, da se boj za učinkovitost seli v srce podatkovnih centrov – v to, kako vsak elektron potuje od omrežja do GPU. Vprašanje za Evropo in Slovenijo ni, ali bo energija postala ozko grlo, temveč kdo bo obvladal tehnologijo, ki to ozko grlo razširi, in ali bomo pri tem igralci ali zgolj opazovalci.

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.