Naslov i uvod
Sjedinjene Države upravo su otvorile novu, osjetljivu frontu u tehnološkom nadmetanju s Kinom. Ovoga puta ne radi se (samo) o čipovima i podacima, nego o samom ponašanju modela umjetne inteligencije. Kada Bijela kuća govori o »industrijski razmjernoj« destilaciji američkih AI sustava u Kini i naznačuje da se radi o svojevrsnoj špijunaži, pokušava povući novu granicu između dopuštenog učenja i nezakonite krađe. Gdje točno povučemo tu crtu, odredit će tko može koga kopirati, koliko brzo Kina hvata priključak – i koliko će prostora ostati Europi i regiji jugoistočne Europe.
Vijest ukratko
Kako piše Ars Technica, pozivajući se na dokumente koje je vidio Financial Times, Ured za znanost i tehnologiju Bijele kuće tvrdi da raspolaže informacijama o velikim, koordiniranim kampanjama stranih subjekata – ponajprije iz Kine – čiji je cilj »destilirati« vrhunske američke AI modele.
Američke tvrtke poput OpenAI‑a, Googlea i Anthropica već su se žalile na slične obrasce. Prema njihovim navodima, akteri povezani s Kinom i drugim državama otvaraju desetke tisuća lažnih ili posredničkih računa, zasipaju chatbotove milijunima upita i koriste jailbreak tehnike kako bi iznudili odgovore izvan uobičajenih ograničenja. Ti se odgovori zatim koriste kao podaci za učenje jeftinijih modela koji oponašaju original.
Posebni odbor Zastupničkog doma za Kinu preporučuje da se takvo »izvlačenje modela« tretira kao industrijska špijunaža. Pozivaju da Ministarstvo trgovine i Ministarstvo pravosuđa ispitaju primjenu zakona o gospodarskoj špijunaži i računalnim zlouporabama te da se tzv. »adverzalna destilacija« službeno proglasi kontroliranim prijenosom tehnologije, što bi otvorilo vrata sankcijama i kaznenom progonu.
Kina optužbe odbacuje kao klevetu, naglašavajući da poštuje intelektualno vlasništvo i zdravo tehnološko nadmetanje. Sve se događa neposredno prije najavljenog sastanka Donalda Trumpa i Xi Jinpinga.
Zašto je to važno
Ključno pitanje je neugodno jednostavno: ako imate pristup API‑ju modela ili javno dostupnom chatbotu, što smijete učiniti s njegovim odgovorima? Gdje završava legitimno učenje, a počinje kopiranje tuđeg proizvoda?
Iz perspektive američkih kompanija, adverzalna destilacija izgleda kao ekstremni oblik švercanja na tuđi račun. Netko potroši milijarde dolara na čipove, struju, podatke i vrhunske inženjere; netko drugi onda, uz automatizaciju i tisuće računa, generira goleme količine izlaza i koristi ih kao označene podatke za učenje vlastitog modela koji se ponaša vrlo slično. Ako je to dopušteno, poslovni model zatvorenih, vlasničkih sustava ozbiljno slabi.
Za kineske tvrtke, kojima je pristup najmodernijim čipovima ograničen, destilacija je privlačan prečac: umjesto građenja vlastitog »frontier« modela od nule, pokušavaju sažeti i kopirati sposobnosti postojećeg američkog modela. U Washingtonu to vide kao način zaobilaženja izvoznih kontrola i bržeg hvatanja priključka s američkim AI sektorom.
Nazvati takve aktivnosti »industrijskom špijunažom« ima tri neposredne posljedice:
- Preseljenje u kazneni i sankcijski okvir – Umjesto pukog kršenja uvjeta korištenja, radi se o potencijalnom kaznenom djelu i kršenju režima kontrole izvoza. To znači mogućnost visokih novčanih kazni, optužnica i trgovinskih mjera.
- Postavljanje globalnih normi – Kada SAD definira određene oblike destilacije kao krađu, druge države i međunarodne organizacije bit će prisiljene zauzeti stav. Tako će se, posredno, oblikovati pravila igre za sve – uključujući i europske te regionalne aktere.
- Jačanje najvećih igrača – Preširoko napisani propisi lako bi mogli zahvatiti i legitimne oblike destilacije koje koriste manji laboratoriji i startupovi za kompresiju modela, prilagodbu jeziku ili sigurnosno fino podešavanje. Najviše bi profitirali oni koji već imaju globalno dominantne modele.
Potencijalni gubitnici nisu samo kineske tvrtke. Pogođeni mogu biti i otvoreni istraživački projekti, europske i balkanske startup‑scene te tvrtke koje se, zbog ograničenih resursa, oslanjaju na destilaciju kao način da izgrade vlastite, lokalno prilagođene sustave.
Šira slika
Ovaj spor uklapa se u nekoliko već vidljivih trendova:
Od rata za podatke do rata za modele – Prve rasprave oko AI‑ja vrtjele su se oko podataka za učenje: smije li se strugati web, tko drži autorska prava, kako zaštititi privatnost. Sada se fokus seli na sam model i njegovo ponašanje. Napadi na izvlačenje modela opisuju se u znanstvenim radovima godinama, ali tek sada dobivaju otvorenu komercijalnu i geopolitičku dimenziju.
Politika uskih grla – Sjedinjene Države već koriste poluvodiče i napredne čipove kao polugu prema Kini. Sljedeći prirodan korak su oblačne usluge i API‑ji vrhunskih modela. Ako se i pristup takvim modelima počne tretirati kao kontrolirana tehnologija, ekosustav aplikacija izgrađenih na njima – uključujući i europske te hrvatske – postaje talac američke vanjske politike.
Pukotina između otvorenog i zatvorenog pristupa – Zastupnici otvorenog koda već dugo tvrde da se sigurnosni argumenti često koriste kao izgovor za zatvaranje modela. Destilacija pokazuje da postoji stvaran rizik kopiranja ponašanja zatvorenih modela, ali i da bi kazneni pristup mogao dodatno obeshrabriti one koji žele modele objaviti otvoreno – jer bi time postali lakše kopirani, bez dodatne pravne zaštite.
Za razliku od klasičnih slučajeva industrijske špijunaže, ovdje nitko ne krade izvorni kod ili nacrte, već uči iz ponašanja sustava koji svoje odgovore dobrovoljno izlaže putem API‑ja. U tehničkom smislu usporedba s krađom je upitna; u političkom smislu je vrlo korisna.
Za EU, Indiju, ali i zemlje jugoistočne Europe, pitanje je hoće li jednostavno preuzeti američki narativ ili pokušati definirati vlastiti balans između zaštite intelektualnog vlasništva i pragmatične otvorenosti.
Europski i regionalni kontekst
Za Hrvatsku i širu regiju jugoistočne Europe ovo nije daleka priča. Brojne domaće tvrtke – od zagrebačkih i splitskih startupova do velikih sustava u bankarstvu, turizmu i javnom sektoru – već sada koriste API‑je američkih modela kao što su oni OpenAI‑a ili Googlea. Sve više timova eksperimentira s destilacijom kako bi dobili manje, jezično prilagođene modele koji mogu raditi on‑premise ili u europskom cloudu.
Ako SAD odredi da su određene vrste destilacije zapravo kontrolirani prijenos tehnologije, projekti koji kombiniraju američke modele i suradnju s partnerima iz Kine ili drugih trećih zemalja mogu naglo postati pravno rizični. Tu se dotičemo i EU okvira: Akt o umjetnoj inteligenciji, GDPR, Direktiva o poslovnim tajnama, pravila o kibernetičkoj sigurnosti – sve to bi se moglo tumačiti i kroz prizmu masovnog kršenja uvjeta korištenja i izvlačenja modela.
Za hrvatske tvrtke važno je i nešto drugo: EU ima priliku postaviti uravnoteženija pravila od američkih. Ako Bruxelles jasno definira razliku između nedopuštenog »industrijskog« izvlačenja modela i legitimne destilacije za interoperabilnost, istraživanje i potrebe malih i srednjih poduzeća, Hrvatska i susjedne zemlje mogle bi profitirati kao sigurna, ali inovativna lokacija za razvoj AI rješenja.
Što slijedi
U idućim godinama treba pratiti nekoliko ključnih linija razvoja:
Kako će se definirati »industrijski razmjer« – Hoće li regulatori ciljati samo stvarno masovne, prikrivene kampanje s tisućama računa i milijunima upita, ili će iste norme zahvatiti i manje projekte koji destilaciju koriste za optimizaciju i lokalizaciju modela?
Tehničke protumjere i posljedice – Veliki američki pružatelji već pooštravaju ograničenja: stroži limiti korištenja, sofisticiranije otkrivanje neuobičajenih obrazaca, blokade sumnjivih zemalja ili IP‑adresa, vodeni žigovi u odgovorima modela. To poskupljuje i napade i legitimnu, intenzivnu uporabu; hrvatske i regionalne tvrtke morat će ulagati više u vlastite zaštitne slojeve i dogovore o razini usluge.
Mogući kineski protuudar – Ako Washington uvede sankcije protiv kineskih AI kompanija, Peking bi mogao odgovoriti pritiskom na američke cloud usluge na svom tržištu, restrikcijama suradnje s europskim istraživačima ili ubrzanim forsiranjem domaćih rješenja. To bi povećalo geopolitički rizik za hrvatske kompanije koje posluju i na kineskom tržištu.
Prve sudske odluke u SAD‑u i EU – Čim neko od velikih poduzeća odluči tužiti navodnog »destilatora«, sudovi će morati odgovoriti na pitanja poput: je li automatizirano korištenje javnog API‑ja bez izričite dozvole »neovlašten pristup«? Je li ponašanje modela poslovna tajna koju se može pravno štititi? Ti će odgovori snažno oblikovati investicijske odluke i razvojne strategije, i u Zagrebu i u Berlinu.
Za hrvatske poduzetnike i razvojne timove to znači da pasivno čekanje više nije opcija. Već danas je pametno planirati scenarije u kojima se oslanjanje isključivo na tuđe API‑je pokaže kao pravno ili poslovno previše rizično – i razmišljati o razvoju vlastitih, barem djelomično neovisnih modela.
Zaključak
Time što veliki obujam AI destilacije označavaju kao potencijalnu industrijsku špijunažu, SAD pokušava usporiti kineski napredak i zaštititi vlastite gigante. No cijena bi mogla biti daljnja fragmentacija AI ekosustava, manje otvorenosti i teži ulazak novih igrača – uključujući one iz Hrvatske i ostatka Europe. Ključno pitanje za našu regiju nije hoćemo li navijati za Washington ili Peking, nego hoćemo li na vrijeme oblikovati vlastita, razumna pravila: kada je učenje iz ponašanja modela legitimna konkurencija, a kada prelazi u krađu tuđeg intelektualnog »mozga«?



