1. Naslov in uvod
Lokalni modeli na prenosnikih so bili dolgo domena navdušencev z gejmerskimi PC‑ji. Podpora za Apple‑ov MLX v Ollami pomeni, da se v igro resno vključujejo tudi M1, M2, M3 in novejši čipi – ter s tem večina sodobnih Macov v slovenskih pisarnah in domačih pisarnah. Ne gre le za “nekaj procentov” pospeška, ampak za to, da se Apple‑ova arhitektura z enotnim pomnilnikom končno izkoristi tako, kot jo je Apple risal na svojih grafih. V nadaljevanju pogledamo, kaj Ollama dejansko prinaša, zakaj je to pomembno za razvijalce in podjetja pri nas in kam to potiska trg lokalne umetne inteligence.
2. Novica na kratko
Kot poroča Ars Technica, je Ollama – priljubljeno orodje za poganjanje velikih jezikovnih modelov lokalno na računalniku – v različici 0.19 dobila predogledno podporo za Apple‑ov odprtokodni okvir MLX.
V prvi fazi MLX poganja le en model: 35‑milijardno različico modela Qwen3.5 kitajskega velikana Alibaba. Zahteve so visoke: potrebujete Mac z Apple Silicon (M1 ali novejši) in najmanj 32 GB RAM‑a. Ollama trdi, da MLX izboljša izrabo enotnega pomnilnika in pospeši izvajanje na Apple‑ovih čipih. Novi Maci z M5‑serijo GPU‑jev in vgrajenimi »Neural Accelerators« naj bi imeli dodatno prednost pri hitrosti generiranja.
Poleg tega je Ollama izboljšala sistem predpomnjenja in dodala podporo za Nvidia‑in format stiskanja NVFP4, ki pri določenih modelih občutno zmanjša porabo pomnilnika. Posodobitev prihaja v času, ko lokalni kodni in asistenčni modeli doživljajo razcvet – tudi zaradi uspeha projekta OpenClaw in eksperimentov, kot je Moltbook. Ollama za zdaj še ne razkriva, kdaj bo podpora MLX izšla iz predogleda oziroma kdaj bodo dodani novi modeli.
3. Zakaj je to pomembno
Na prvi pogled gre za tehnični upgrade: več tokov na sekundo, manjša poraba pomnilnika, boljši izkoristek nove strojne opreme. A strateško gledano je bistvo drugje: Apple‑ovi Maci postajajo polnopravna platforma za lokalni AI, ne zgolj »lep prenosnik za urejanje dokumentov«.
Do zdaj je veljalo neizrečeno pravilo: če želite resno poganjati lokalne LLM‑je, kupite PC z veliko Nvidia kartico. Apple‑ov pristop z integrirano grafiko in enotnim pomnilnikom je bil eleganten, a v realnih AI delovnih tokovih pogosto razočaral. Z integracijo MLX Ollama prvič zares sedi na Apple‑ovi uradni poti do optimiziranega dostopa do tega pomnilnika.
Zmagovalci:
- Razvijalci na Macih, tudi v Ljubljani, Mariboru ali Kopru, ki ne želijo dodatnega Linux strežnika pod mizo.
- Podjetja in freelancerji, ki jim je pomembna zasebnost in ne želijo občutljivih podatkov pošiljati v ZDA.
- Odprtokodna scena, ki pridobi še eno resno tarčo za svoje modele.
Porazenci, vsaj relativni:
- Čisti cloud ponudniki, ki stavijo predvsem na udobje in manj na surovo kvaliteto modela.
- Uporabniki s šibkeje opremljenimi Maci – ogromna baza 8–16 GB MacBookov bo za večje modele še vedno ostala prikrajšana.
Kratkoročno to pomeni, da se del eksperimentiranja in produktivnega dela z AI seli iz podatkovnih centrov nazaj na mize – na drage, a prenosne naprave. To spremeni računico stroškov, stopnjo zaklepa k ponudniku in hitrost inovacij, saj lahko večino stvari preizkusite lokalno, brez čakanja na API ključe in limito zahtevkov.
4. Širša slika
Ollamina podpora MLX se lepo vklaplja v trend zadnjih let: lokalni modeli postajajo »dovolj dobri«.
Dobili smo celo generacijo kompaktnih, a zmogljivih odprtih modelov za programiranje, pisanje in raziskovanje. V splošnih testih še ne dohitevajo največjih komercialnih sistemov, a za ciljno usmerjene naloge – recimo pomoč pri pisanju kode ali pripravi osnutkov dokumentov – so že več kot uporabni. Če k temu dodamo frustracije razvijalcev z omejitvami API‑jev in draženjem naročnin za cloud asistente, je jasno, zakaj lokalni pristop dobiva zalet.
Apple je v tem času tiho gradil infrastrukturo. MLX je odgovor na vprašanje, kako narediti Apple Silicon konkurenčen za strojno učenje, ne da bi kopirali Nvidia model z ločenimi GPU‑ji. Enoten pomnilnik in strogo nadzorovan softverski sklad sta Apple‑ova stava. Dokler je to živelo le v prezentacijah na WWDC, je bilo precej teoretično; zdaj, ko ga uporablja orodje, kot je Ollama, dobimo prvi konkreten dokaz, da pristop ni le marketing.
Podpora formatu NVFP4 pa kaže še nekaj pomembnega: Ollama noče vstopiti v versko vojno Mac proti PC, ampak želi biti nevtralen sloj, ki zna govoriti tako z MLX kot z Nvidia‑jem. To je za evropski in slovenski ekosistem zelo pomembno – ekipe lahko trenirajo ali fintunajo modele na strežnikih z Nvidia karticami, nato pa jih brez velikih pretvorb poganjajo na Macih razvijalcev.
Če pogledamo zgodovinsko: podobno smo videli pri vzponu GPGPU, ko so se prepletali CUDA, OpenCL in specifične knjižnice različnih proizvajalcev. Danes imamo novo fronto: MLX, CUDA‑pospešeni PyTorch, ROCm ter visokorazinska orodja, kot je Ollama. Zmagali bodo tisti, ki bodo omogočili lahek prenos modelov med različnimi strojami – od domačega MacBooka do strežnika v oblaku.
5. Evropski in slovenski kot
Za evropske – in s tem slovenske – uporabnike to ni le zgodba o hitrosti, ampak o regulativi in suverenosti.
GDPR in prihajajoči EU AI Act postavljata stroge zahteve glede tega, kje se obdelujejo podatki in kdo ima nad njimi nadzor. Če model teče lokalno na vašem Macu, osebni in poslovni podatki sploh ne zapustijo naprave ali interne mreže. Za slovenska podjetja v zdravstvu, javni upravi, finančnem sektorju ali odvetništvu je to velika prednost: lažji DPIA, manj zahtevno pogodbeno urejanje oblačnih storitev, manj političnega in pravnega tveganja.
Mac je v Sloveniji močan med razvijalci, oblikovalci in v kreativnih agencijah. Ollama jim omogoča, da z relativno majhno dodatno investicijo (višja konfiguracija RAM‑a) dobijo na mizi zasebni AI strežnik. Namesto da strankine materiale pošiljajo neznanim sistemom, lahko mnogo procesov – od povzetkov do internih analiz – izvajajo lokalno.
Za domači startup ekosistem – od ljubljanskih hubov do ekip v Mariboru ali Novi Gorici – to pomeni nižjo vstopno oviro za prototipiranje AI funkcij. Ni nujno takoj plačevati dragih oblačnih računov; MVP lahko nastane na prenosniku, ki ga ima ekipa že tako ali tako.
Na ravni EU je pomemben še vidik energetske učinkovitosti in odvisnosti od velikih ameriških ponudnikov. Če del inferenc premaknemo na rob (edge), razbremenimo podatkovne centre in zmanjšamo potrebo po konstantnem klicanju oddaljenih GPU‑jev – kar dobro sovpada s cilji evropske digitalne in zelene agende.
6. Pogled naprej
Ključno vprašanje je, kako hitro se bo MLX podpora razširila in ali bo Apple pri svoji viziji dovolj odprt.
Če v naslednjem letu ali dveh vidimo, da Ollama z MLX podpira celo paleto modelov – od manjših, ki delujejo na 16 GB napravah, do specializiranih modelov za kodo, razlago pravnih besedil ali raziskave – bo Apple Silicon postal zelo resna izbira za ekipe, ki gradijo produkte na osnovi lokalnega AI. Če bo pri enem ali dveh modelih ostalo, bo šlo bolj za zanimiv eksperiment.
Drugo veliko vprašanje je uporabniška izkušnja. Ollama je danes primarno CLI orodje; za vas in mene je to sprejemljivo, za povprečnega uporabnika v slovenski pisarni pa ne. Potrebujemo kvalitetne grafične vmesnike, integracijo v urejevalnike (Visual Studio Code je dober začetek), pisarniške pakete in morda celo neposredno vezavo v Apple‑ove lastne aplikacije. Šele takrat bo lokalni AI na Macu res množičen.
Tveganja ostajajo. Strošek strojne opreme (32 GB in več) bo marsikatero podjetje ali javni zavod odvrnil. Apple je znan po zaprtosti svojega ekosistema; če bo MLX ostal preveč »črn zabojnik«, bodo neodvisni razvijalci težje iztisnili maksimum iz strojne opreme.
A priložnost je očitna: vsak zmogljivejši Mac v slovenskih podjetjih se lahko v praksi spremeni v mini AI strežnik, ki spoštuje zasebnost in evropsko regulativo. Vprašanje je le, ali bodo IT oddelki, startupi in javna uprava to priložnost prepoznali in tudi organizacijsko izkoristili.
7. Spodnja črta
Podpora za MLX v Ollami je pomemben premik: prvič resno pokaže, da je Apple Silicon lahko enakovreden igralec v lokalnem AI svetu. Za evropska in slovenska podjetja to pomeni realno možnost, da del ključnih AI nalog premaknejo iz oblaka na svoje mize – z manj regulatornih skrbi in več nadzora nad podatki. Ostaja vprašanje, ali bomo zmogli organizacijsko in finančno slediti strojni viziji, ki jo zdaj rišeta Apple in Ollama. Kje boste čez tri leta raje poganjali svoje najbolj občutljive AI procese – doma ali v tujem oblaku?



