1. Naslov i uvod
Godinama je nepisano pravilo za lokalne modele glasilo: ako nemaš desktop s Nvidia GPU‑om, igraš se, ne radiš ozbiljno. Nova podrška za Appleov MLX u Ollami sugerira da to više ne vrijedi. Macovi s Apple Silicon čipovima polako prerastaju u ozbiljne strojeve za lokalnu umjetnu inteligenciju – što je itekako relevantno i za hrvatske i regionalne tvrtke koje već žive na MacBookovima. Ne radi se samo o ubrzanju, nego o tome da se Appleov koncept zajedničke memorije napokon koristi onako kako je zamišljen. U nastavku analiziram što Ollama donosi, kako mijenja tržište i što to znači za korisnike u Hrvatskoj i regiji.
2. Vijest ukratko
Prema pisanju Ars Technice, Ollama – popularni sustav za lokalno pokretanje velikih jezičnih modela – u verziji 0.19 dobiva preliminarnu podršku za MLX, Appleov otvoreni framework za strojno učenje.
Trenutno MLX u Ollami ubrzava samo jedan model: 35‑milijardnu varijantu modela Qwen3.5 kineske Alibabe. Za njegovo pokretanje potreban je Mac s Apple Silicon čipom (M1 ili noviji) i najmanje 32 GB RAM‑a. Ollama navodi da MLX poboljšava iskorištenost zajedničke memorije i opću izvedbu na Appleovim čipovima, dok bi najnoviji Macovi s M5 GPU‑ovima i novim „Neural Accelerators“ trebali dobiti dodatni poticaj u brzini generiranja.
Uz MLX, Ollama uvodi i poboljšani cache te podršku za Nvidia‑in NVFP4 format kompresije, koji za neke modele znatno smanjuje potrošnju memorije. Sve to dolazi u trenutku kada lokalni modeli za programiranje i asistenciju doživljavaju veliki skok popularnosti, među ostalim zahvaljujući viralnom projektu OpenClaw i eksperimentima poput Moltbooka. Ollama zasad ne otkriva kada će MLX podrška izaći iz preview faze niti kada će se proširiti na dodatne modele.
3. Zašto je to važno
Kratkoročno, dobit ćete više tokena u sekundi i bolje korištenje memorije. Dugoročno, puno je važnije što se mijenja u percepciji: Apple‑ovi Macovi napokon ulaze u prvu ligu lokalnog AI‑ja.
Do sada je savjet entuzijastima bio jasan: za ozbiljan lokalni LLM kupi PC i veliku Nvidia karticu. Mac je, čak i s M1/M2/M3 čipovima, bio zgodan stroj za ured i kreativne alate, ali ne baš za lokalnu inferencu većih modela. Apple je pričao o „unified memory“, no malo je alata tu arhitekturu zaista koristilo optimalno.
S MLX‑om u Ollami priča se mijenja. Poruka je: ako imate noviji Mac i dovoljno RAM‑a, ne morate više bježati u cloud ili kupovati dodatni server.
Tko dobiva?
- Razvijatelji i startupi u Zagrebu, Splitu, Ljubljani ili Beogradu koji već rade na Macovima.
- Tvrtke i profesionalci osjetljivi na privatnost, koji žele da povjerljivi podaci ne napuštaju uređaj.
- Otvoreno‑kodna zajednica, koja dobiva još jednu kvalitetnu platformu za distribuciju modela.
Tko relativno gubi?
- Čisti cloud servisi, čiji je glavni adut bila praktičnost, a ne nužno kvaliteta modela.
- Korisnici s osnovnim konfiguracijama Macova (8–16 GB RAM‑a), koji i dalje neće moći vrtjeti veće modele.
Izravna posljedica: sve veći dio eksperimentiranja i svakodnevnog rada s AI‑jem seli se na osobna računala više klase. To mijenja strukturu troškova (manje mjesečnih računa za API‑je), smanjuje ovisnost o jednom pružatelju usluge i daje timovima više kontrole nad time gdje žive i prolaze njihovi podaci.
4. Šira slika
Ollamina MLX integracija logično se uklapa u nekoliko paralelnih trendova.
Prvi je uspon „dovoljno dobrih“ lokalnih modela. Posljednjih godina pojavili su se kompaktni, otvoreni modeli koji odlično rješavaju zadatke poput pomoćnog programiranja, sažimanja, pisanja nacrta tekstova ili osnovne analize dokumenata. Nisu najbolji u svim benchmarkovima, ali u praksi često „rade posao“. Istodobno, raste frustracija zbog ograničenja poziva i cijena komercijalnih AI servisa – što lokalne modele čini privlačnijima.
Drugi trend je pomicanje inferencije na rub (edge). Apple, kao i drugi proizvođači čipova, već neko vrijeme naglašava da se što više AI posla treba obavljati na samom uređaju – zbog privatnosti, latencije i energetske učinkovitosti. Na iPhoneu to već vidimo godinama; MLX je pokušaj da se sličan model ozbiljno prebaci i na Mac.
Podrška za Nvidia‑in NVFP4 poručuje još nešto: Ollama ne bira stranu u „Mac protiv PC“ ratu, već želi biti sloj koji spaja svjetove. Tim može trenirati ili dorađivati modele na serverima s Nvidia GPU‑om, kvantizirati ih u NVFP4 i zatim iste te modele vrlo učinkovito vrtjeti na Macovima putem MLX‑a. Za male i srednje tvrtke u Hrvatskoj, koje često kombiniraju jeftiniji cloud s developerima na MacBookovima, to je idealna kombinacija.
Ako pogledamo povijesno, situacija pomalo podsjeća na rane dane GPGPU‑a, kad su se sukobljavali CUDA, OpenCL i vlasničke biblioteke. Danas gledamo sličnu dinamiku između CUDA‑baziranog PyTorcha, AMD‑ovog ROCm‑a, Appleovog MLX‑a i visokorazinskih runtime‑ova poput Ollame. Pobjednici će biti oni koji omogućuju lako premještanje modela između tih okruženja – od servera u oblaku do laptopa na stolu.
5. Europski i regionalni kut
Za Hrvatsku i širu SEE regiju ovo nije samo tehnička zanimljivost, već i regulatorno i strateško pitanje.
EU kroz GDPR, Digital Services Act i nadolazeći AI Act sve više naglašava gdje se podaci obrađuju i tko za to odgovara. Ako model vrti lokalno na Macu u vašem uredu u Zagrebu, mnogi osjetljivi podaci uopće ne napuštaju EU niti prelaze preko trećih pružatelja usluga. To pojednostavljuje DPIA analize, ugovore o obradi podataka i usklađivanje s regulativom – što je ključno za banke, zdravstvene ustanove, javnu upravu, odvjetničke urede i slične subjekte.
Mac je već raširen među developerima i kreativcima u Hrvatskoj – od zagrebačkih agencija do IT timova u Istri i Dalmaciji. Ako ti strojevi uz Ollamu postanu i privatni AI poslužitelji, lokalne tvrtke mogu graditi AI‑pogonjene procese (transkripcija, sažeci, analiza dokumenata) bez slanja podataka u velike američke oblake.
Za regionalni startup ekosustav (Infobip u susjedstvu, Rimac, niz SaaS tvrtki po Adriji) ovo znači nižu ulaznu barijeru za izgradnju proizvoda usklađenih s EU regulativom, ali bez ogromnih inicijalnih ulaganja u infrastrukturu.
6. Pogled unaprijed
Ključ je u tome hoće li se ovaj korak pretvoriti u cijeli ekosustav ili ostati izolirana „super opcija za entuzijaste“.
Prvo pitanje je širina podržanih modela. Jedan Qwen3.5‑35B impresivna je demonstracija snage, ali prava vrijednost stiže kada MLX u Ollami pokreće različite modele: manje asistente za 16 GB strojeve, specijalizirane modele za kod, obradu pravnih tekstova, zdravstvene podatke, poslovnu analitiku… Ako u sljedećih godinu‑dvije vidimo takvo širenje, Mac će postati vrlo ozbiljna platforma za lokalni AI u mnogim hrvatskim tvrtkama.
Drugo pitanje je kako će izgledati alati „na vrhu“. Danas je Ollama prvenstveno alat za terminal. Da bi AI lokalno zaživio kod šireg kruga korisnika, bit će potrebne kvalitetne grafičke aplikacije, integracije u IDE‑ove (VS Code, JetBrains), uredske pakete, ERP/CRM sustave… To je prilika za domaće i regionalne developere da izgrade nišne alate za odvjetnička društva, marketing agencije, logističke tvrtke ili turistički sektor – s Ollamom kao motorom u pozadini.
Rizici? Cijena hardvera (32 GB RAM‑a nije standard u hrvatskim uredima), zatvorenost Appleovog ekosustava te mogućnost da većina korisnika jednostavno ostane na navikama clouda jer „radi i ne treba ništa podešavati“.
Ipak, potencijal je jasan: svaki noviji Mac u nekoj zagrebačkoj ili splitskoj firmi mogao bi postati mali, regulatorno prihvatljiv AI poslužitelj. Ostaje pitanje hoće li menadžmenti i IT odjeli to prepoznati i strateški iskoristiti.
7. Zaključak
Podrška za MLX u Ollami nije samo tehnički „tweak“, već signal da Appleovi Macovi žele igrati ozbiljnu ulogu u svijetu lokalne umjetne inteligencije. Za hrvatske i regionalne korisnike to nudi zanimljivu kombinaciju: više kontrole nad podacima, manje ovisnosti o oblaku i mogućnost da se postojeći MacBookovi pretvore u AI poslužitelje. Ključno pitanje je hoćemo li izgraditi dovoljno dobre alate i navike da tu mogućnost stvarno iskoristimo – ili ćemo i dalje većinu najosjetljivijih AI zadataka gurati u tuđe podatkovne centre. Gdje vi želite da za tri godine živi vaš najvažniji AI‑radni tok: na vašem stolu ili negdje u nečijem oblaku?



