Dogovor Google–Thinking Machines: ko postane računalniška moč resnični ozki grlo umetne inteligence

22. april 2026
5 min branja
Ilustracija podatkovnega centra Google Cloud, povezanega z AI laboratorijem

Dogovor med Thinking Machines Lab in Google Cloudom ni zgolj še ena pogodba za najem grafičnih kartic. Pokaže, da se težišče moči v umetni inteligenci seli od pametnih modelov k nadzoru nad gosto, zanesljivo računalniško infrastrukturo. Za slovenske in evropske ekipe, ki razmišljajo o lastnih frontier modelih, je to nova gravitacija, ki jo je težko ignorirati.

V nadaljevanju povzemam, kaj je razkril TechCrunch, analiziram, zakaj se Google tako agresivno poteguje za še vedno zelo skrivnostni laboratorij, ter kakšne posledice ima to za evropsko računalniško suverenost – od Veginega superračunalnika v Mariboru do malih ljubljanskih zagonskih podjetij.

Kaj se je zgodilo

Kot poroča TechCrunch, je Thinking Machines Lab, ki ga je leta 2025 ustanovila nekdanja glavna tehnološka direktorica OpenAI Mira Murati, podpisal novo večmilijardno pogodbo z Google Cloudom. Po podatkih vira, na katerega se sklicuje TechCrunch, je vrednost pogodbe v enomestnih milijardah dolarjev.

Dogovor laboratoriju zagotavlja dostop do Googlove infrastrukture, ki temelji na najnovejših Nvidia GB300 grafičnih procesorjih. Google trdi, da ta generacija ponuja približno dvakrat hitrejše učenje in posluževanje modelov v primerjavi s prejšnjo. Paket vključuje tudi storitve, kot so shranjevanje podatkov, Kubernetes Engine in baza Spanner, s posebnim poudarkom na delovnih obremenitvah za učenje z okrepitvijo.

Thinking Machines je že prej sklenil partnerstvo z Nvidio, ki je v podjetje tudi investirala, to pa je prva pogodba z večjim ponudnikom oblačnih storitev. Ni ekskluzivna, kar pomeni, da laboratorij lahko uporablja več ponudnikov. Njihov prvi produkt, Tinker, je od oktobra 2025 orodje za avtomatizirano gradnjo prilagojenih frontier modelov.

Pogodba sledi tudi nedavnim dogovorom Anthropic z Googlom in Amazonom za ogromne količine računalniške kapacitete za učenje in uporabo sistemov Claude.

Zakaj je to pomembno

Pomen tega dogovora je trojen: Google si dolgoročno veže hitro rastoč laboratorij, krepi odgovor na navezo Microsoft–OpenAI in potrjuje, da so v svetu AI ozko grlo postali strojni viri, ne algoritmi.

Za Google je Thinking Machines idealen referenčni kupec. Vodi ga prepoznavna bivša vodilna iz OpenAI, usmerjen je v frontier raziskave, Tinker pa poskuša industrijsko avtomatizirati gradnjo modelov. Takšno orodje je praktično peč za kurjenje računske moči. Kdor nadzoruje to peč, ima vzvod nad prihodnjimi produkti in prihodki laboratorija.

Čeprav pogodba ni ekskluzivna, je gravitacija oblaka realna. Ko ekipa standardizira eksperimente na enem skladu – od Kubernetesa in omrežja do shranjevanja podatkov in orodij za nadzor poskusov – je selitev bistvenega dela delovnih obremenitev k konkurenci draga in boleča. Prištejmo še količinske popuste in zgodnji dostop do strojne opreme in dobimo dejansko vezavo na en ekosistem.

Jasni zmagovalec je tudi Nvidia. Ne glede na to, ali gre Anthropic k Amazonu, Thinking Machines k Googlu ali OpenAI k Microsoftu, je na dnu sklada skoraj vedno zelen logotip. Google sicer agresivno potiska lastne TPU-je, vendar primer Thinking Machines kaže, da ob zahtevkih za absolutni vrhunski performance laboratoriji praviloma še vedno stavijo na Nvidio.

Izgubljajo manjši ponudniki oblaka in odprte infrastrukture. Če so vsi vodilni laboratoriji vezani na večmilijardne pogodbe s tremi ameriškimi hiperskalami, postane za evropske ponudnike, nacionalne superračunalniške centre ali dobro financirane zagone bistveno težje pritegniti frontier projekte.

Širši kontekst

Dogovor lepo sodi v vzorec zadnjih let: hiperskali tekmujejo, kdo bo s ključnimi AI laboratoriji sklenil pogodbe, podobne energetskim ali telekomskim koncesijam. Microsoft je to naredil z OpenAI, Google in Amazon s podjetjem Anthropic, zdaj pa Google z Thinking Machines.

Ponudniki oblaka niso več zgolj gostitelji aplikacij, temveč postajajo nekakšna elektro podjetja za AI. Vnaprej rezervirajo elektriko, hlajenje in specializirane čipe ter gradijo podatkovne centre glede na pričakovano porabo. V zameno dobijo stabilno, ogromno povpraševanje in prestižno referenco, ki pritegne druge stranke.

Pomembna podrobnost iz objave Google Clouda, na katero se sklicuje TechCrunch, je poudarek na učenju z okrepitvijo. Ta pristop je že v preteklosti omogočil preboje laboratorijev, kot so DeepMind in OpenAI, vendar postane na frontier ravni izjemno drag. Agenti, ki raziskujejo ogromne prostorske razsežnosti, ali celo sistemi, ki samodejno načrtujejo nove modele, porabijo neprimerljivo več računske moči kot klasično nadzorovano učenje.

Tinker leži točno na tem presečišču. Če bo res učinkovito avtomatiziral gradnjo frontier modelov, vstopamo v fazo, v kateri modeli pomagajo snovati naslednjo generacijo modelov. Majhna raziskovalna ideja se lahko v nekaj mesecih spremeni v industrijski cevovod, ki kuri milijarde GPU ur.

Za Google je to tudi politično sporočilo: noče prepustiti ekosistema neodvisnih laboratorijev Microsoftu in Amazonu. Čeprav ima zelo močan lasten raziskovalni aparat (DeepMind, Google Research), mu zunanji partnerji omogočajo diverzifikacijo in zmanjšanje tveganja, da bi lastna strategija zaostala za tržnimi potrebami.

Evropski pogled

Za Evropo je to še ena potrditev, da se vrhunska AI infrastrukturno naslanja na ameriške gigante. Res je, Thinking Machines ni evropsko podjetje, vendar je vzorec jasen: vsaka nova generacija laboratorijev se zasidra pri Googlu, Microsoftu ali Amazonu. Prostor za globalno relevantno, neodvisno evropsko računsko plast se zmanjšuje.

To je v napetosti z deklariranimi cilji EU o digitalni in AI suverenosti. Uredba o umetni inteligenci bo regulirala visokorizične sisteme in splošnonamenske modele, ne spreminja pa dejstva, da fizični strežniki v veliki meri stojijo v podatkovnih centrih pod ameriškim upravljanjem, pogosto na Nvidiini strojni opremi in z lastniškimi orkestracijskimi plastmi.

Evropski ponudniki oblaka – od OVHcloud in Scalewaya do T‑Systems in regionalnih akterjev – so tako potisnjeni v vlogo nišnih in skladnostnih ponudnikov. EuroHPC superračunalniki, kot je Vega v Mariboru ali LUMI na Finskem, sicer ponujajo impresivno zmogljivost, a se po prilagodljivosti in poslovnem modelu težko kosajo z hiperskali, ki sklepajo prilagojene večmilijardne pogodbe.

Regulacija nudi nekaj vzvodov. Akta o podatkih in digitalnih trgih skušata omejiti zaklepanje v oblak in olajšati prenos storitev. V skrajnem primeru bi lahko evropske konkurence preučevale, ali paketni dogovori, kjer je dostop do najnaprednejših čipov vezan na uporabo celotnega sklada storitev, pomenijo zlorabo tržne moči.

Za slovenska podjetja in institucije je sporočilo jasno: tudi če boste uporabljali orodja, kot je Tinker, boste skoraj zagotovo končali na eni izmed ameriških platform. To odpira vprašanja glede rezidentnosti podatkov, skladnosti z GDPR, pa tudi strateške odvisnosti, če se politični ali gospodarski odnosi zaostrijo.

Kaj lahko pričakujemo

Tovrstnih pogodb bo verjetno še več. Vsak laboratorij, ki želi trenirati prave frontier modele, se bo moral odločiti: hiperskaler, nacionalni oziroma europski superračunalnik ali pa odpoved ambicijam na samem robu zmogljivosti.

Za Google in Thinking Machines bo naslednjih 12 do 24 mesecev ključno vprašanje, ali bosta iz rezervirane kapacitete iztisnila diferencirane produkte. Če bo Tinker uspešen, lahko pričakujemo val domen­sko usmerjenih frontier modelov, ki jih ne bodo razvijali laboratoriji, temveč večja podjetja: za finance, zdravstvo, logistiko ali specifične evropske jezike.

Pozorni velja biti na tri stvari.

Prvič, koliko bo v praksi res prisotna večoblačna strategija. Pogodba je uradno neekskluzivna. Če bo Thinking Machines v prihodnje oznanjal večje pogone učenja tudi pri drugih ponudnikih, bo to znak, da se je mogoče izogniti popolnemu zaklepu.

Drugič, regulativni odziv. Ko bo AI računska zmogljivost postajala kritična infrastruktura za zdravstvo, javne storitve ali energetiko, bodo evropski in nacionalni regulatorji verjetno začeli na dolgoročne pogodbe gledati bolj podobno kot na energetiko ali telekomunikacije.

Tretjič, energija in trajnost. Večgigavatne pogodbe, kot jih je TechCrunch omenjal pri Anthropic, sprožajo težka vprašanja o zanesljivosti omrežja in podnebnih ciljih. EU je pri razogljičenju ambicioznejša kot ZDA, kar bo vplivalo na lokacijo in zasnovo velikih AI grozdov.

Za slovenski ekosistem – od državne uprave do zagonskih podjetij v Ljubljani in Mariboru – to pomeni, da je treba na računsko moč gledati kot na strateški vir. Odločitev, ali delovne obremenitve zaupati hiperskalerjem ali kombinirati z domačimi kapacitetami, kot je Vega, ne bo več le tehnično, temveč tudi politično in poslovno vprašanje.

Zaključek

Dogovor med Googlom in Thinking Machines kaže, da v umetni inteligenci niso več ozko grlo algoritmi, temveč infrastruktura. Majhen klub ameriških velikanov in Nvidia stojijo v središču tega sistema. Za Evropo in tudi Slovenijo to odpira neprijetno vprašanje: bomo le regulirali modele drugih ali bomo hkrati uspeli sooblikovati računsko plast, na kateri ti modeli dejansko tečejo?

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.