1. Naslov in uvod
Google je naredil potezo, ki bo za razvijalce dolgoročno pomembnejša kot še en »čudežni« oblačni model. Z Gemmo 4 in prehodom na licenco Apache 2.0 Google prvič jasno sporoča, da so odprti, lokalno izvedljivi modeli strateška, ne več stranska tema. To neposredno zadeva tudi slovenske ekipe – od startupov v Ljubljani do IT‑oddelkov v bankah in javni upravi. V nadaljevanju pogledamo, zakaj je licenca pomembnejša od parametrov, kako se Gemma 4 umešča v tekmo z Llamo in Mistralom ter kaj to pomeni za prihodnje generacije AI na Androidu in Pixelih.
2. Novica na kratko
Kot poroča Ars Technica, je Google predstavil družino odprtih modelov Gemma 4, prvo večjo nadgradnjo Gemme po približno enem letu. Na voljo so štiri različice: dva večja modela za lokalne strežnike in delovne postaje – 26‑milijardni Mixture of Experts (MoE) in 31‑milijardni gosti model – ter dva učinkovita robna modela Effective 2B (E2B) in Effective 4B (E4B) za mobilne in nizkoenergijske naprave.
Večja modela sta zasnovana tako, da ne‑kvantizirana v formatu bfloat16 tečeta na enem 80 GB grafičnem procesorju Nvidia H100, ob kvantizaciji pa ju je mogoče poganjati tudi na potrošniških GPU‑jih. Modela E2B in E4B ciljata pametne telefone ter ploščice, kot sta Raspberry Pi in Jetson Nano, z agresivnimi optimizacijami za pomnilnik in zakasnitev.
Ključna sprememba: Google opušča lastno licenco Gemma in Gemmo 4 objavlja pod licenco Apache 2.0, permisivno in široko sprejeto odprtokodno licenco. Modele je mogoče uporabljati v Google AI Studio in AI Edge orodjih, v Google Cloud ter jih kot uteži prenesti s platform, kot so Hugging Face, Kaggle in Ollama.
3. Zakaj je to pomembno
Največja novica ni hiter 26B MoE ali »pametni« 31B model, temveč to, da se je Google odpovedal eksperimentiranju z lastnimi licencami in prešel na Apache 2.0. S tem podjetjem v praksi sporoča: Gemmo lahko vključite v resne projekte brez pravnih minskih polj.
Prejšnja licenca Gemma je bila za številne pravnike in arhitekte sistemov problematična: nejasna prepovedana raba, obveznost nadzora nad vsemi nadaljnjimi uporabami in možnost, da bi se omejitve razširile celo na druge modele, trenirane na sintetičnih podatkih Gemme. Rezultat je bil predvidljiv – mnoge ekipe so se raje odločile za Llamo, Mistral ali manjše modele z bolj preglednimi pogoji.
Apache 2.0 to dinamiko obrne. Dovoli komercialno rabo, interno uporabo in vključitev v produkte brez strahu, da bo Google čez leto dni enostransko spremenil pravila. To Gemmo 4 dela zanimivo za:
- slovenska podjetja, ki zaradi GDPR in prihajajočega Akta o umetni inteligenci raje izvajajo AI lokalno,
- integratorje in proizvajalce strojne opreme, ki želijo modele naložiti neposredno na naprave,
- startupe, ki želijo modele prilagoditi za nišne vertikale in jih ponujati kot storitev.
Seveda so tudi potencialni poraženci. Zaprti API‑ponudniki bodo pod večjim pritiskom pri internih copilotih, iskanju po dokumentih in generiranju kode, kjer je 31B lokalni model »dovolj dober« in dolgoročno cenejši. Manjši ponudniki odprtih uteži z omejevalnimi licencami pa bodo morali najti nov način, kako se razlikovati od Googlove Apache ponudbe.
4. Širša slika
Gemma 4 se lepo vklaplja v vsaj tri večje trende.
Prvič, renesansa odprtih uteži. Meta z Llamo, francoski Mistral in drugi kažejo, da lahko modeli z odprtimi utežmi narekujejo tempo tako v raziskavah kot v produktih. Google je do sedaj stal na dveh stolih: v oblaku je vsiljeval zaprti Gemini, na »odprti« strani pa Gemmo z odganjajočo licenco. Apache 2.0 je priznanje, da tako ne gre več.
Drugič, premik k manjšim, a pametnejšim modelom. Nismo več v času, ko šteje le, kdo ima največ parametrov. 26B MoE, ki pri inferenci aktivira le 3,8 milijarde parametrov, je tipičen primer nove filozofije: učinkovitost in nizka zakasnitev za realno‑časovne primere uporabe. V kombinaciji s 128k–256k kontekstnim oknom so ti modeli povsem dovolj za večino agentnih potekov dela, še posebej ob povezavi z zunanjimi orodji in podatkovnimi bazami.
Tretjič, vzpon robne in hibridne AI. Modela E2B in E4B jasno kažeta smer: naslednja generacija Gemini Nano na Androidu, Pixelih in morda ChromeOS bo temeljila na Gemmi. Lokalna obdelava za prepoznavanje govora, prevajanje, povzetke klicev in optično prepoznavanje znakov postaja pričakovani standard. Apple, Qualcomm, Microsoft in Google tekmujejo, kdo bo dokazal, da »AI na napravi« ni le marketinški slogan.
Zgodovinsko gledano je imel Google težave, kako iz odličnih raziskav narediti platformno prednost (TensorFlow je na koncu prehitel PyTorch). Z objavo Gemme 4 pod Apache in širjenjem uteži na Hugging Face in Ollamo skuša to napako popraviti: če bodo razvijalci Gemmo poganjali v svojih okoljih, Google posredno vseeno zmaga – utrdi Android in Pixel ter poskrbi, da bo Gemini v oblaku izbira za res najzahtevnejše primere.
5. Evropski in slovenski vidik
Za evropske – in s tem tudi slovenske – organizacije Gemma 4 pod licenco Apache 2.0 rešuje dva stalna problema: pravno tveganje in suverenost podatkov.
GDPR in prihajajoči Akt o umetni inteligenci EU potiskata podjetja v smer, da bolj nadzorujejo, kje in kako obdelujejo podatke. Če lahko banke, zavarovalnice, zdravstvene ustanove ali državni organi Gemmo 4 poganjajo v lastnih podatkovnih centrih, na suverenih oblakih v EU ali neposredno na napravah uporabnikov, je to bistveno lažje uskladiti z regulatorji.
Licenca Apache 2.0 poenostavi tudi javna naročila. javni sektor in večja podjetja nočejo dolgih pogajanj o eksotičnih licencah. Če je pravni okvir primerljiv z Llamo ali Mistralom, je odločitev bolj tehnična kot pravna.
Za slovenski startup ekosistem – od fintech projektov do industrijskih IoT rešitev – Gemma 4 ponuja pragmatično pot: vzame se odprti model, ga prilagodi na lastnih ali naročnikovih podatkih, inferenca pa teče v EU infrastrukturi ali neposredno na napravah. Za manjše trge, kot je Slovenija, kjer je vsaka nepotrebna zunanja odvisnost draga, je to konkretna konkurenčna prednost.
6. Pogled naprej
V naslednjem letu bo ključno vprašanje: bo Gemma 4 postala »drugi privzeti« model poleg Llama, ali bo ostala eksotika, vezana na Googlov ekosistem?
Prvi indikator bo podpora v orodjih. Ali bodo priljubljeni frameworki za agentne sisteme in RAG (LangChain, LlamaIndex, različni orkestracijski strežniki) Gemmo 4 obravnavali kot prvo‑razrednega državljana? Če bo integracija gladka in bodo na voljo kakovostni open‑source primeri, bo sprejemanje hitro – še posebej v ekipah, ki že uporabljajo GCP.
Drugi indikator bo realna zmogljivost na običajni strojni opremi. Trditev, da je Gemma 31B med najboljšimi odprtimi modeli ob bistveno manjši velikosti, bo treba potrditi pri dolgem kontekstu, programiranju in večjezičnih primerih. Za ekipe v Sloveniji, ki pogosto delajo z mešanico slovenščine, angleščine in hrvaščine/srbščine, bo prav večjezičnost lokalnih modelov ključen test.
Na mobilni strani bo zanimivo spremljati, kako hitro bo Gemini Nano 4 prišel tudi na telefone zunaj Pixla in kakšna bo razlika v zmogljivostih med napravami. Če bodo ključne funkcije – povzetki, prepoznavanje govora, osnovna generacija besedila – res delovale povsem brez oblaka, bo to močan argument pri evropskih regulatorjih in uporabnikih.
Odprtih vprašanj je še več: ali bo Google dolgoročno vzdrževal Gemmo kot ločeno linijo ali jo bo tiho zlepil z Gemini? Kako bo EU v praksi obravnavala odprte modele pod Apache v okviru Akta o AI? In ali bo Google zdržal pritisk finančnih oddelkov, ki bi najraje vse sile usmerili v bolj donosne, povsem oblačne storitve?
7. Spodnja črta
Gemma 4 pod licenco Apache 2.0 je za Google prelomni trenutek v odnosu do odprte, lokalne umetne inteligence. Modeli niso največji na trgu, a so dovolj zmogljivi, da pokrijejo veliko večino praktičnih primerov uporabe – od internih copilotov do pametnih mobilnih funkcij. Če bo Google zgradil dober ekosistem orodij in ne bo več eksperimentiral z licenčnimi omejitvami, lahko Gemma postane privzeta izbira za vse, ki želijo AI pod svojim nadzorom. Ključno vprašanje je, ali ji bodo razvijalci zaupali bolj kot prejšnjim Googlovim »odprtim« poskusom.



