1. Naslov i uvod
Na američkom sudu Elon Musk je potvrdio ono o čemu su mnogi u industriji umjetne inteligencije samo šaputali: veliki laboratoriji ne natječu se samo – oni i treniraju jedni na drugima. xAI je, prema njegovim riječima, Grok djelomično trenirao na OpenAI modelima koristeći tzv. destilaciju. To nije samo pikantni detalj u njegovoj tužbi protiv OpenAI‑a, već trenutak u kojem postaje jasno koliko su mutne granice vlasništva i fer konkurencije u svijetu AI‑a.
U nastavku objašnjavamo što ova izjava znači za tržište, regulaciju, europske i regionalne aktere te za tvrtke i timove iz Hrvatske i regije koje grade proizvode na vrhu tuđih modela.
2. Vijest ukratko
Kako piše TechCrunch, Elon Musk je na saveznom sudu u Kaliforniji svjedočio da je njegovo poduzeće xAI koristilo destilacijske tehnike na modelima OpenAI‑a kako bi treniralo svoj chatbot Grok. Destilacija podrazumijeva sustavno ispitivanje moćnog modela i korištenje njegovih odgovora kao podataka za treniranje drugog modela, koji tako preuzima velik dio ponašanja izvornog sustava.
Musk vodi sudski spor protiv OpenAI‑a, izvršnog direktora Sama Altmana i su‑osnivača Grega Brockmana, tvrdeći da su napustili izvorno neprofitno poslanje organizacije prelaskom na profitnu strukturu. Na izravno pitanje je li xAI destilirao OpenAI modele, Musk je rekao da je to opća praksa u industriji te priznao da je xAI to djelomično radio.
TechCrunch navodi i da su OpenAI, Anthropic i Google kroz Frontier Model Forum pokrenuli inicijativu kojom žele razmjenjivati informacije o načinima obrane od destilacije, posebno iz Kine. U istom iskazu Musk je rangirao Anthropic kao trenutačnog lidera, zatim OpenAI i Google, potom kineske open‑source modele, dok je xAI opisao kao bitno manju tvrtku sa svega nekoliko stotina zaposlenih.
3. Zašto je to važno
Muskova izjava je važna jer istovremeno potvrđuje industrijsku praksu, razotkriva dvostruke standarde i najavljuje nove pravne bitke.
1. Normalizacija destilacije
Godinama se pretpostavljalo da laboratoriji koriste javne API‑je konkurencije kako bi ubrzali vlastiti razvoj. U javnosti se pritom uglavnom pričalo o kineskim akterima koji destilacijom stvaraju otvorene modele gotovo jednake snage kao američki, ali uz znatno manji trošak. Sada je jedan od najpoznatijih ljudi u industriji praktički rekao: da, i mi to radimo. To će dodatno motivirati velike igrače da pooštre uvjete korištenja, ograniče masovna ispitivanja i uvedu detekciju „sumnjivih“ obrazaca upita.
2. Dvostruki standardi oko podataka
Veliki laboratoriji su godinama pravdali masovno prikupljanje podataka s interneta – uključujući sadržaje zaštićene autorskim pravom – kao nužno i u javnom interesu. Kada se sada isto radi s njihovim modelima, kroz destilaciju njihovog ponašanja, odjednom je riječ o krađi i nepoštenom iskorištavanju. Muskovo priznanje pojačava dojam da svi igraju po istom obrascu: otvorenost dok ste mali, zatvaranje čim ste veliki.
3. Pravno siva zona s velikim ulozima
Kako ističe TechCrunch, sama destilacija nije jasno nezakonita; problem su potencijalno kršenje uvjeta korištenja i zadiranje u poslovne tajne. No, oslanjanje isključivo na ToS ugovore teško će dugoročno funkcionirati, osobito kada su uključene tvrtke iz različitih jurisdikcija. Prije ili kasnije sudovi će morati odgovoriti može li se sposobnost koju model nauči iz izlaza drugog modela uopće tretirati kao nečije vlasništvo.
Kratkoročno bi najveći gubitnici mogli biti srednji igrači i open‑source zajednice, kojima će pristup snažnim API‑jima postati skuplji i restriktivniji. Dobitnici će biti oni divovi koji uspiju nametnuti svoju definiciju dopuštene i nedopuštene destilacije te je poduprijeti i tehničkim i pravnim mjerama.
4. Šira slika
Muskove riječi uklapaju se u nekoliko većih trendova u razvoju umjetne inteligencije.
1. Od „scrapanja“ podataka do „scrapanja“ modela
Donedavno je glavni resurs bio sirovi tekst, slike i kod s interneta. Danas je jednako vrijedan resurs samo ponašanje već istreniranih modela. Destilacija je zapravo strukturirano „iskapanje“ tuđe kognicije: postojeći model proizvodi kvalitetne sintetičke podatke, a novi model na njima uči. Klasično autorsko pravo, pisano za knjige i glazbu, teško se primjenjuje na ovakav oblik učenja.
2. Od priče o otvorenosti do obrambenih saveza
Frontier Model Forum i slične inicijative pokazuju kako se retorika „otvorene znanosti“ brzo mijenja kad u igru uđu tržišni udjeli. Umjesto otvaranja modela i dijeljenja rezultata, danas gledamo koordinirano ograničavanje API‑ja, detekciju neuobičajenih upita i mogućnost zajedničkih pravnih postupaka. Priča o obrani od Kine daje političko pokriće mjerama koje jednako efikasno drže podalje i američke i europske startupe.
3. Konsolidacija na vrhu tehnološkog sloja
Muskov vlastiti poredak – Anthropic, zatim OpenAI i Google, pa kineski open‑source – sugerira da je vrh piramide vrlo uzak. Ako ti akteri uspiju otežati destilaciju svojih modela, barijere ulaska za nove laboratorije opće namjene bit će gotovo nepremostive. Slično kao kod cloud infrastrukture, gdje su AWS, Azure i Google Cloud praktički zaključali vrh tržišta, moglo bi se dogoditi i kod temeljnih AI modela.
Za hrvatski i regionalni ekosustav – od Zagreba i Ljubljane do Beograda i Sarajeva – to znači da će se inovacija uglavnom seliti na više slojeve: specijalizirane, manje modele, kvalitetan fine‑tuning za lokalne jezike te vertikalna rješenja (financije, turizam, javna uprava), umjesto pokušaja da se gradi „hrvatski GPT“ od nule.
5. Europski i regionalni kut
Iz perspektive EU‑a i Hrvatske ovo je prvenstveno pitanje regulacije i tehnološke ovisnosti.
Europski akt o umjetnoj inteligenciji, koji će se postupno primjenjivati sredinom desetljeća, uvodi stroge obveze transparentnosti, upravljanja rizicima i dokumentiranja za sustave opće namjene. Destilacija se ne uklapa savršeno u postojeće kategorije, ali će brzo doći na radar regulatora u Bruxellesu i Zagrebu: ako europska tvrtka destilira američki model protivno njegovim uvjetima korištenja, radi li se samo o ugovornom sporu ili i o pitanju tržišnog natjecanja i industrijske politike?
Za hrvatske tvrtke i javne institucije destilacija je mač s dvije oštrice. S jedne strane, omogućuje stvaranje manjih, lokalno hostanih modela koji se mogu bolje uskladiti s GDPR‑om, nacionalnim pravilima o čuvanju podataka i ograničenjima slanja osjetljivih podataka u strane oblake. S druge strane, može vas dovesti u izravni sukob s glavnim dobavljačima, što dugoročno otežava partnerstva i komercijalne dogovore.
Uz to, EU već kroz Digital Markets Act i Digital Services Act pokušava smanjiti ovisnost o nekolicini velikih američkih platformi. Ako se destilacija strogo ograniči, Europa – uključujući Hrvatsku – riskira da i na polju umjetne inteligencije ostane isključivo kupac tuđih API‑ja, umjesto da razvije vlastite kapacitete.
6. Pogled unaprijed
Što možemo očekivati u sljedećih nekoliko godina?
1. Tehnički „DRM“ za modele
Veliki će igrači ulagati u tehnike kojima će otežati ili poskupjeti destilaciju: vodene žigove u izlazima modela, naprednu analitiku za prepoznavanje masovnih i atipičnih upita, pa i dinamičko mijenjanje ponašanja modela ovisno o obrascu korištenja. Kao i kod DRM‑a za glazbu i filmove, zaštita nikada neće biti savršena, ali će podignuti prag za najočitije oblike kopiranja.
2. Prvi sudski presedani
Muskovo priznanje gotovo provocira barem jedan visoko profiliran slučaj u kojem će neki veliki laboratorij tužiti manjeg igrača zbog destilacije. Čak i ako se većina takvih sporova završi nagodbom, dovoljan je mali broj javnih postupaka da odvjetnički timovi banaka, telekoma i državnih institucija počnu vrlo oprezno gledati na bilo kakvo oslanjanje na destilirane modele.
3. Zatvoreniji, vertikalno integrirani AI ekosustavi
Ako se destilacija pokaže rizičnom, mnoge će se tvrtke jednostavno svrstati uz jedan ekosustav – OpenAI/Microsoft, Anthropic/Amazon, Google ili, u nekim državama, kineske platforme. Za Hrvatsku i susjedne zemlje to znači još veću ovisnost o stranim vendorima, osim ako država i EU ne ulože značajnija sredstva u vlastitu računalnu infrastrukturu i potpore regionalnim AI laboratorijima.
4. Reputacijski rizici i pitanje vjerodostojnosti
Muskov iskaz daje kritičarima industrije dodatnu municiju. Gotovo svi veliki igrači u nekoj su fazi razvoja agresivno koristili tuđe podatke. Što glasnije danas govore o „krađi“ putem destilacije, to će ih više novinari, regulatori i javnost podsjećati na njihove vlastite prakse prikupljanja podataka.
7. Zaključak
Činjenica da je xAI Groka djelomično trenirao na OpenAI modelima nije samo trač iz sudnice, nego simptom dubljeg sukoba u ekonomiji umjetne inteligencije. Isti laboratoriji koji su izrasli na masovnom korištenju tuđih podataka sada traže snažnu zaštitu ponašanja svojih modela. O tome hoće li se destilacija tretirati kao krađa, kao legitimna konkurencija ili kao nešto između, ovisit će može li itko ozbiljno izazvati današnje AI gigante. Za hrvatske i regionalne aktere ključno je pitanje: hoćemo li AI doživljavati više kao javno znanje ili kao strogo čuvanu korporativnu imovinu?



