1. Naslov in uvod
Vsi govorijo o pomanjkanju GPU‑jev, a prava fronta v AI se premika drugam: v omrežje. Ko poskušate povezati na tisoče pospeševalnikov v en sam "super‑računalnik", zmogljivost sistema ne določa več samo hitrost čipa, temveč to, kako dobro se ti čipi pogovarjajo med seboj. Na tem temelji stava Eriduja, novega startupa, ki je iz skrivnega načina delovanja stopil v javnost z izjemnim 200‑milijonskim A‑krogom. V nadaljevanju analiziramo, kaj Eridu dejansko počne, zakaj postaja omrežje nov ozko grlo ter kaj to pomeni za evropske ponudnike oblaka in ambicije glede "suverene" umetne inteligence.
2. Novica na kratko
Kot poroča TechCrunch, je podjetje Eridu izstopilo iz stealth faze z 200 milijonov dolarjev težkim in preveč naročenim A‑krogom, s čimer se je skupno zbrani kapital povzpel na 230 milijonov dolarjev. Krog vodijo Socratic Partners, ugledni investitor John Doerr in Matter Venture Partners, sodelujejo pa še Hudson River Trading, Capricorn Investment Group, MediaTek, Bosch Ventures, TDK Ventures ter investicijsko vozilo, povezano s TSMC.
Eridu sta leta 2024 ustanovila izvršni direktor Drew Perkins, dolgoletni pionir na področju računalniških omrežij z več uspešnimi izhodi, ter soustanovitelj Omar Hassen, strokovnjak za omrežne čipe pri velikih proizvajalcih silicija.
Podjetje razvija nove omrežne čipe in celotne sisteme, optimizirane za AI, ki naj bi nadomestili več nivojev klasične optične infrastrukture v podatkovnih centrih. Cilj je, da več funkcionalnosti prenesejo neposredno na čip, s čimer zmanjšajo število skokov, latenco in porabo energije ter izboljšajo učinkovitost velikih gruče GPU‑jev. Eridu ima približno sto zaposlenih. Vrednotenje in konkretni prvi kupci niso javno razkriti.
3. Zakaj je to pomembno
Razprave o umetni inteligenci se vrtijo okoli pomanjkanja GPU‑jev in velikosti modelov, Eridu pa cilja plast, ki v resnici določa zgornjo mejo zmogljivosti: omrežni preplet.
Učenje najzahtevnejših modelov pomeni povezati tisoče ali celo več deset tisoč pospeševalnikov. V tem merilu se klasični pristop – "dodajmo še en nivo stikal in optike" – začne lomiti. Vsak dodatni skok pomeni dodatno latenco in variabilnost. Vsak optični modul pomeni strošek, porabo energije in potencialno okvaro. Lahko kupite še več GPU‑jev, a če omrežje ne dovaja podatkov dovolj hitro, plačujete za silicij, ki večino časa čaka.
Teza Eriduja je za obstoječe igralce neprijetna: zmogljivost GPU‑jev in pomnilniških vodil raste bistveno hitreje kot zmogljivost standardnih podatkovno‑centričnih stikal. Omrežje se tako spremeni v novo ozko grlo.
Če se pristop – več funkcij neposredno na namenski AI‑silicij, manj zunanje optike – izkaže za uspešnega, je krog potencialnih zmagovalcev precej jasen:
- Hiperskalerji in AI‑laboratoriji lahko v isti energetski in prostorski ovojnici dobijo več učinkovitega računa.
- Ponudniki modelov skrajšajo čas učenja in lažje skalirajo gruče.
- Proizvajalci čipov lahko svoje pospeševalnike povezujejo v večje in bolje izkoriščene konfiguracije.
Potencialni poraženci so klasični proizvajalci omrežne opreme in mercant‑silicija, katerih razvojne poti računajo predvsem na postopno nadgradnjo Ethernet in optične tehnologije. Tudi če Eridu nikoli ne postane dominanten, že sama velikost investicije sporoča: bolečina na področju AI‑omrežij je dovolj velika, da se splača razmišljati povsem od začetka.
4. Širši kontekst
Eridu je del širšega preoblikovanja AI‑podatkovnih centrov.
Prvi trend je vertikalna integracija okoli AI‑delovnih bremen. Nvidia ne prodaja več le GPU‑jev, ampak tudi lastna stikala, medsebojne povezave in celotne sisteme. Veliki ponudniki oblaka, kot sta Google in Amazon, razvijajo lastne pospeševalnike in vse pogosteje tudi lastno omrežno strojno opremo. Eridu v bistvu sporoča: AI‑optimiziranega omrežja ne potrebujejo samo hiperskalerji ali Nvidia, temveč vsak, ki gradi večje gruče.
Drugi trend je specializacija povezovalnih tehnologij. Optični start‑upi razvijajo so‑pakirane optike in fotoniko v ohišju čipa; drugi raziskujejo koncepte računa v omrežju ali izkoriščajo standarde, kot je CXL, ki brišejo mejo med pomnilnikom in omrežjem. Strategija Eriduja – več na čipu, manj diskretne optike – sodi v isto smer: zmanjševanje latence in analogne kompleksnosti s približevanjem omrežja računu.
Zgodovinsko gledano se je omrežni trg gibal nasprotno: od zaprtih fabricov k Ethernetu in standardiziranemu siliciju, kar je prineslo komodizacijo in pritisk na marže. AI lahko v zgornjem segmentu ta tok obrne. Eksotične topologije, lastni protokoli in delovno‑specifična omrežja lahko ponovno ustvarijo diferenciacijo – vsaj za najzahtevnejše gruče.
Poleg tega je Eridu del vala kapitala, ki se usmerja pod raven samih modelov. Po eksploziji temeljnih modelov investitorji odkrivajo, da so ključni tudi napajanje, hlajenje, pakiranje, verifikacija in omrežje. A‑krog v višini 200 milijonov dolarjev za infrastrukturni startup brez produkta bi bil v prejšnjem ciklu skoraj nepredstavljiv; v AI‑dobi nakazuje nastanek nove, potencialno večmilijardne kategorije: "AI‑omrežni sklad".
5. Evropski in regionalni vidik
Za Evropo in tudi Slovenijo pojav Eriduja poudarja realnost: želimo "suvereno AI", hkrati pa smo pri strojni opremi v veliki meri odvisni od ekosistemov zunaj EU.
Evropska unija vlaga v superračunalnike EuroHPC in nacionalne AI‑gruče (med njimi tudi Vega v Mariboru) ter sprejema AI‑akt, Zeleni dogovor in strožje zahteve glede porabe energije. Sporočilo je jasno: več AI z manj vatov in manj uvožene odvisnosti.
Če bo Eridu dejansko sposoben zmanjšati porabo energije in površino na enoto učinkovitega AI‑računa z optimizacijo omrežja, bo zanimiv za evropske in slovenske ponudnike oblaka, telekome in raziskovalne ustanove – ne glede na to, da je podjetje ameriško. Učinkovitejša omrežja lahko pomagajo, da regionalne gruče (denimo v Nemčiji, Franciji ali na Finskem) ostanejo konkurenčne primerjavi z regijami ameriških hiperskalerjev.
Regulativno bo pod pritiskom tudi energetska učinkovitost. AI‑akt in podnebne politike bodo od velikih ponudnikov AI v EU zahtevale transparentnost in, postopoma, zmanjšanje okoljskega odtisa. Omrežje predstavlja opazen delež porabe energije v podatkovnem centru; optimizacija na tej ravni podpira skladnost in znižuje stroške.
Za slovenska podjetja – od telekomov do ponudnikov IT‑storitev – je vprašanje predvsem strateško: ali se bodo pravočasno vključila v nove omrežne arhitekture, ali pa bodo zgolj uvozniki končnih rešitev, prilagojenih drugim trgom. Oba pristopa sta možna, a prvi prinaša več vpliva na to, kako se te tehnologije prilegajo lokalni regulativi in poslovnim modelom.
6. Pogled naprej
Razvoj namenskega omrežnega silicija je maraton, ne šprint. Tudi z izkušenim vodstvom in obilnim kapitalom mora Eridu skozi faze načrtovanja, tape‑outa, validacije in integracije v realne gruče – to pomeni leta, ne mesece.
V bližnji prihodnosti bo ključnih nekaj točk:
- Referenčni kupci: zgodnje zmage pri hiperskalerjih, AI‑laboratorijih ali visoko‑frekvenčnih trgovalcih bodo dale kredibilnost arhitekturi.
- Programsko‑orodna plast: ali bo omrežje videti kot "še en Ethernet" ali kot nekaj povsem drugega, bo močno vplivalo na prag vstopa. Upravljivost in integracija z obstoječimi orodji sta kritični.
- Dokazane prihranke: operaterji bodo želeli jasne, ponovljive številke glede izboljšanja zmogljivosti na vat in na porabljen evro – ne le laboratorijskih benchmarkov.
Makro tveganja so očitna. Investicije v AI infrastrukturo so eksplodirale; če se cikel ohladi, bodo eksotične omrežne arhitekture lahek cilj za rezanje stroškov. Druga grožnja je vse bolj zaprt, integriran ekosistem Nvidie: če en ponudnik nadzira GPU, programsko opremo in interconnect, je vnos novega omrežnega sloja političen in tehničen izziv.
Za slovenske in širše evropske akterje je vprašanje, ali se bodo vključili v zgodnje pilotne projekte, vplivali na standarde in zagotovili, da bodo prihodnje AI‑fabric rešitve upoštevale evropske regulatorne in energetske posebnosti. Kdor bo čakal na "stabilen standard", lahko ugotovi, da je trg že oblikovan drugje.
7. Sklep
A‑krog v višini 200 milijonov dolarjev za Eridu je jasen signal, da se je ozko grlo AI preselilo z čipov na omrežje. Ne glede na to, ali bo podjetje dolgoročno zmagovalec, bo prisililo obstoječe igralce, da omrežja za velike gruče GPU‑jev načrtujejo z energijsko učinkovitostjo in latenco kot primarnima meriloma. Za Evropo in Slovenijo je sporočilo preprosto: suverenost v AI ne pomeni le lastnih modelov in podatkov, temveč tudi nadzor nad "nevidno" plastjo, ki prenaša bite med čipi. Vprašanje je, kdo bo to plast dejansko soustvarjal.



