Od crne kutije do staklenog stroja: zašto je tumačivi LLM Guide Labs važan i za europsku i za regionalnu AI scenu

23. veljače 2026.
5 min čitanja
Ilustracija prozirne neuronske mreže s vidljivim tokovima podataka

Kad „više GPU-a” više nije jedini odgovor

Veliki AI igrači natječu se u broju parametara i veličini klastera, dok se regulatorima, bankama i državama – uključujući Hrvatsku – nameće drugo pitanje: možemo li objasniti zašto je model baš tako odlučio? Start‑up Guide Labs iz San Francisca tvrdi da ima dio odgovora. Njihov novi model Steerling‑8B dizajniran je tako da se svaki generirani token može pratiti natrag do učnih podataka i pojmova u modelu. To nije samo znanstvena zanimljivost, već potencijalni temelj za AI koja će smjeti ući u banke, bolnice i javnu upravu u EU.

Vijest ukratko

Kako piše TechCrunch, Guide Labs je otvorio izvorni kod modela Steerling‑8B, jezičnog modela s 8 milijardi parametara i novom arhitekturom usmjerenom na inherentnu tumačivost. Tvrtku su osnovali CEO Julius Adebayo i znanstvena direktorica Aya Abdelsalam Ismail. Prošla je kroz Y Combinator, a u studenom 2024. osigurala je 9 milijuna dolara seed ulaganja od fonda Initialized Capital.

Ključna novost je takozvani sloj koncepata koji grupira učne podatke u sljedive, čovjeku razumljive kategorije. Prema navodima Guide Labs, razvojni tim može za svaki token koji model proizvede odrediti koji su koncepti i koji primjeri iz trening skupa najviše doprinijeli tom ishodu – bilo da je riječ o konkretnim činjenicama ili apstraktnijim pojmovima poput humora ili spola.

TechCrunch navodi da Steerling‑8B, prema tvrdnjama tvrtke, postiže oko 90 % sposobnosti usporedivih modela, ali uz manje učnih podataka zahvaljujući drukčijoj arhitekturi. Guide Labs vidi primjenu u potrošačkim proizvodima s filtriranjem osjetljivog sadržaja, u reguliranim industrijama poput financija te u znanosti, primjerice kod modeliranja proteina. Sljedeća faza je razvoj većeg modela i ponuda pristupa putem API‑ja i agentskih rješenja.

Zašto je to važno

Steerling‑8B je zanimljiv manje zbog same snage, a više zato što napada temeljni problem današnje generativne AI: koristimo je pri donošenju stvarnih odluka, iako je uglavnom ne znamo suvislo objasniti.

Tko dobiva?

  • Regulirani sektori – banke, osiguravatelji, zdravstvo – dobivaju potencijalni alat koji može zadovoljiti nadzornike. U kreditnom odobravanju ili procjeni rizika mogućnost da se pokaže koji su koncepti i podaci doveli do zaključka može postati obvezni minimum.
  • Poduzeća s reputacijskim rizikom, od velikih hrvatskih banaka do regionalnih telekoma, mogu dobiti finiju kontrolu nad sadržajem. Umjesto beskonačnog „promptanja“, mogli bi u načelu utišati cijele skupine koncepata vezanih uz nasilje, drogu ili sporni autorski sadržaj.
  • Timovi za sigurnost, etiku i usklađenost dobivaju arhitekturu koja nudi konkretne tehničke poluge za upravljanje modelom, a ne samo dokumente s pravilima iznad crne kutije.

Tko gubi?

  • Veliki proizvođači frontier modela teže će tvrditi da ozbiljna tumačivost jednostavno nije izvediva. Ako mala tvrtka pokaže da se interpretabilnost može ugraditi u samu arhitekturu uz prihvatljivu cijenu u performansama, bit će teže opravdati čisto „uzmite na vjeru, ali vjerujte nam da je sigurno“ pristup.
  • Start‑upovi koji samo „prepakiraju“ zatvorene API‑je mogli bi izgubiti natječaje u kojima se bude jasno tražio uvid u unutarnje funkcioniranje modela.

Dublji pomak je konceptualan. Posljednjih godina interpretabilnost se uglavnom svodila na analize gotovih modela – saliency mape, „probijanje“ neurona, pomoćne klasifikatore. Guide Labs polazi obrnutim putem: inženjerski oblikuje model tako da su objašnjenja strukturalno ugrađena. Ako ta filozofija „preraste“ u veće modele, standard „state‑of‑the‑art“ više neće biti samo postotak točnosti, nego i razina nadzora i objašnjivosti.

Šira slika

Steerling‑8B sjedne točno na sjecište nekoliko trendova.

Prvo, sigurnosne strategije u velikim labovima – od „constitutional AI“ pristupa do složenog učenja potpomognutog povratnom informacijom – fokusirane su na ponašanje, a ne na unutarnje reprezentacije. To su slojevi pravila iznad neprozirne strukture. Guide Labs problem seli u samu arhitekturu.

Drugo, ekonomske i tehničke granice skaliranja postaju očite. Trošak treniranja golemih modela, nestašica GPU‑a i ograničena količina kvalitetnih podataka motiviraju potražnju za učinkovitijim pristupima. Model koji nudi oko 90 % učinka s manje podataka, a uz to donosi ugrađenu revizijsku stazu, dobro se uklapa u tu logiku.

Treće, regulativa se zaoštrava. EU AI Act, GDPR, ali i sektorska pravila u financijama i zdravstvu guraju u smjeru transparentnosti, dokumentacije i – gdje je moguće – razumljive razrade automatiziranih odluka. Do sada se često tvrdilo da je kod dubokih neuronskih mreža to naprosto „ograničenje tehnologije“. Pojava modela poput Steerling‑8B čini taj argument manje uvjerljivim.

Povijest nam nudi paralelne primjere. U visokofrekventnom trgovanju netransparentni algoritmi doveli su do šokova na tržištu, nakon čega su uvedeni stroži zahtjevi za nadzor i mogućnost isključenja. Kod preporučnih sustava društvenih mreža neobjašnjivost je dovela do političkog pritiska i sada do regulacije kroz DSA. Tumačivi LLM‑ovi pokušaj su da se taj ciklus ne ponovi s generativnom AI.

U tom svjetlu Guide Labs izgleda manje kao egzotični istraživački projekt, a više kao rani predstavnik kategorije AI infrastrukture s usklađenošću ugrađenom u dizajn.

Europski i regionalni kut gledanja

Za EU, a time i za Hrvatsku, ovo je razvoj koji se savršeno uklapa u trenutni regulatorni okvir. AI Act će za niz „visokorizičnih“ primjena – uključujući kreditno ocjenjivanje, zapošljavanje i neke primjene u javnom sektoru – tražiti detaljnu dokumentaciju, upravljanje podacima i, gdje je razumno moguće, objašnjivost odluka.

Modeli koji omogućuju praćenje svakog izlaza do koncepta i trenažnih podataka daju upravo onu vrstu tehničke podloge koju europski zakonodavac očekuje. Europski igrači poput njemačkog Aleph Alpha već se pokušavaju diferencirati kroz „objašnjivu AI“, a i francuski Mistral će morati pokazati da njihovi modeli mogu živjeti u okviru EU pravila. Guide Labs postavlja referentnu točku za to kako bi to moglo izgledati u praksi.

Za hrvatske banke, osiguravatelje, zdravstvene ustanove ili državnu upravu, koja razmatra uvođenje LLM‑ova, interpretabilni otvoreni modeli predstavljaju realnu alternativu čistom oslanjanju na zatvorene američke API‑je. Mogu se pokretati on‑premise ili u EU oblaku, integrirati s domaćim podacima, a istovremeno nuditi građanima jasniji odgovor na pitanje „tko i zašto je tako odlučio“.

Tu je i dimenzija autorskih i osobnih prava. Ako se za određeni izlaz može pokazati koji su korpusi posebno doprinijeli, europski i regionalni nakladnici te nositelji prava dobivaju jaču pregovaračku poziciju kod licenciranja. Istodobno, postaje lakše uočiti je li model treniran na osobnim podacima na način nespojiv s GDPR‑om.

Pogled naprijed

Što je realno očekivati u idućih 12–24 mjeseca?

  1. Tumačivost ulazi u natječajnu dokumentaciju. Velike financijske institucije i javni sektor u EU počet će eksplicitno tražiti informacije o tome kako se odluke modela mogu objasniti, kako se prati podrijetlo podataka i upravlja pristranostima.

  2. Pojavit će se novi benchmarki. Uz standardne testove znanja i programiranja, izaći će metrike koje mjere koliko pouzdano se može rekonstruirati put odluke, identificirati relevantne učne primjere i kontrolirati osjetljive koncepte.

  3. Hibridne arhitekture postat će uobičajene. Vjerojatno je da će se u kritičnim procesima kombinirati vrlo moćan, ali netransparentan model za opće rezoniranje s tumačivim modelom koji djeluje kao „čuvar“ u trenutku kada se donosi pravno ili sigurnosno osjetljiva odluka.

  4. Vidjet ćemo stvarne kompromise. Iako Guide Labs tvrdi da je gubitak performansi mali, kod znatno većih modela možda će se pojaviti dodatna latencija ili složenost. Tržište će morati odlučiti koliko je točnosti vrijedno žrtvovati za revizijsku stazu koja prolazi i kod regulatora.

  5. Regulatori će podići ljestvicu. Kad jednom postoje tehnički izvedivi, komercijalno dostupni tumačivi modeli, bit će sve teže opravdavati uporabu potpuno netransparentnih modela u visokorizičnim slučajevima. Posebno u EU možemo očekivati da će se „gdje je moguće, objasni“ postupno pretvoriti iz preporuke u očekivani standard.

Ostaju, naravno, važna otvorena pitanja: kako osigurati tumačivost nakon dodatnog treniranja na internim podacima? Kako uskladiti finu razinu praćenja s pravom na zaborav iz GDPR‑a? Tko kontrolira i revidira „rječnik koncepata“ ugrađen u model?

Zaključak

Steerling‑8B je manje važan kao novi rekorder, a više kao pokazna vježba da se interpretabilnost može pretvoriti iz teorijske teme u inženjerski standard. Ako se takve arhitekture pokažu skalabilnima, utrka u AI‑ju pomaknut će se s pitanja „tko ima najveći model“ na pitanje „tko može dati najjače jamstvo što njegov model radi – i zašto“. Za hrvatske i regionalne korisnike ključno je pitanje: hoćete li u sljedećem projektu s kritičnim posljedicama i dalje pristajati na crnu kutiju, kad na stolu postoji barem jedna staklena?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.