Kad destilacija postane napad: što sukob Anthropic–Kina otkriva o budućnosti AI-ja

23. veljače 2026.
5 min čitanja
Apstraktni prikaz podatkovnih tokova između američkih i kineskih AI laboratorija

1. Naslov i uvod

Anthropic je javno optužio tri kineska AI laboratorija da su otvorila na desetke tisuća lažnih računa i preko API‑ja masovno „vadila“ sposobnosti iz Claude modela kako bi njima nahranila vlastite sustave. Nema klasičnog proboja sigurnosti – samo ekstremno agresivna destilacija.

Za hrvatske i regionalne tvrtke koje svoje nove proizvode temelje na ChatGPT‑u, Claudeu ili sličnim servisima u oblaku, ovo je ozbiljno upozorenje. Pokazuje koliko je krhka pretpostavka da će pristup tim modelima uvijek biti stabilan i apolitičan. U nastavku objašnjavam što se dogodilo, zašto Anthropic to povezuje s američkim izvoznim kontrolama čipova te što sve to znači za EU i jugoistočnu Europu.

2. Vijest ukratko

Kako piše TechCrunch, Anthropic tvrdi da su kineske tvrtke DeepSeek, Moonshot AI i MiniMax stvorile više od 24.000 lažnih korisničkih računa za pristup modelu Claude. Preko tih računa generirano je više od 16 milijuna interakcija, osmišljenih za „destilaciju“ – treniranje vlastitih modela na izlazima snažnijeg modela.

Prema Anthropicovim navodima, svaki je laboratorij ciljao druge sposobnosti Claudea: logičko zaključivanje, uporabu alata, programiranje, analizu podataka, razvoj agenata koji upravljaju računalom te računalni vid. U jednom je slučaju tvrtka navodno primijetila da je gotovo polovica prometa tog laboratorija preusmjerena na najnoviju verziju Claudea odmah nakon njezina izlaska.

Optužbe dolaze u trenutku kada se u SAD‑u vodi rasprava o izvozu naprednih AI čipova u Kinu. Prema TechCruncheu, administracija Donalda Trumpa nedavno je dopustila tvrtkama poput Nvidije izvoz naprednih akceleratora, uključujući H200, u Kinu. Anthropic tvrdi da je destilacija u takvom opsegu moguća samo uz pristup takvom hardveru te slučaj koristi kao argument za strože kontrole.

3. Zašto je to važno: API kao linija fronte

Ono što Anthropic naziva „destilacijskim napadom“ udara točno u živac današnjeg AI poslovnog modela. Većina prihoda frontier laboratorija dolazi od API pristupa – plaćate pozive i na temelju toga gradite svoje aplikacije. No sad se pokazuje da isti taj API može poslužiti i kao alat za strateško kopiranje konkurentskog modela.

Za aktere poput DeepSeeka to je racionalan potez: umjesto da godinama i uz golema ulaganja sami otkrivaju kako postići dobro rezoniranje, poravnanje sa zadanim pravilima i složenu orkestraciju alata, ponašaju se kao da je Claude skupi konzultant kojeg ispitujete milijunima pažljivo dizajniranih upita. Odgovore zatim destilirate u vlastitu arhitekturu.

Gubitnici su pioniri poput Anthropica i OpenAI‑ja, koji su ulagali nevjerojatne iznose upravo zato što su vjerovali da tu prednost neće biti lako kopirati. Još je opasnije što se sigurnosne kočnice koje ti modeli imaju – od ograničavanja bioloških rizika do suzbijanja kibernetičkih napada – u procesu destilacije mogu izostaviti ili namjerno oslabiti.

Šira posljedica je da se cijeli ekosustav gura prema zatvorenosti. Što više laboratoriji osjećaju da im se znanje „izvlači“ preko API‑ja, to će manje objavljivati detalje, otežavati pristup i ograničavati funkcionalnosti. Time ne gube samo „veliki“ – gube istraživači, open‑source zajednica i, dugoročno, ukupna sigurnost sustava.

4. Šira slika: od scrapinga podataka do ekstrakcije sposobnosti

U povijesti tehnologije ovo ne vidimo prvi put. Mreže poput LinkedIna godinama su se borile protiv scrapera koji su masovno skupljali javne profile za konkurentske servise. Pretraživači već desetljećima destiliraju obrasce ponašanja korisnika kako bi poboljšali rangiranje. U AI svijetu otvoreni modeli se nerijetko uče na izlazima zatvorenih.

Razlika je u ulozima. Destilirati model koji piše oglase jedno je; destilirati model koji, ako ga se „otključa“, zna puno o izgradnji zlonamjernog softvera, naprednim kibernetičkim napadima ili biotehnologiji – nešto sasvim drugo.

Ovaj slučaj uklapa se u tri velika trenda:

  • Kontrola pristupa kao geopolitičko sredstvo. OpenAI, Google, Anthropic i drugi sve manje izgledaju kao neutralni davatelji usluga u oblaku, a sve više kao čuvari strateških kapaciteta. Tko smije koristiti koji model i pod kojim uvjetima postaje političko, ne samo poslovno pitanje.
  • Utrka model‑protiv‑modela. DeepSeek je već privukao pozornost modelom R1, koji se po razini rezoniranja približio američkim laboratorijima uz znatno niži trošak. TechCrunch navodi da se uskoro očekuje DeepSeek V4, koji bi mogao nadmašiti Claude i ChatGPT u programiranju. U takvoj klimi nije čudno da američki akteri pokušavaju zaustaviti „prepisivanje domaće zadaće“.
  • Sigurnost kao industrijska politika. Anthropic naglašava da destilirani modeli vjerojatno neće zadržati zaštitne mehanizme te da ih autoritarni režimi mogu koristiti za masovni nadzor, kibernetičke operacije i dezinformacije. To je stvarna prijetnja, ali istodobno i moćan narativ za jačanje izvoznih ograničenja i industrijske politike SAD‑a.

Rezultat je daljnja fragmentacija: manje otvorenih modela, više zatvorenih ekosustava i jasnije linije razdvajanja između tehnoloških blokova.

5. Europski i regionalni kut: regulativa imamo, modele još nemamo

Za Europsku uniju i za Hrvatsku kao članicu poruka je jasna: oslanjamo se na tuđe modele u trenutku kad ti modeli postaju geopolitička valuta. EU gradi najdetaljniji regulatorni okvir na svijetu – AI Act, GDPR, Digital Services Act, Digital Markets Act – ali još uvijek nema dovoljno vlastitih frontier modela.

Za hrvatske banke, telekome, turističke grupacije ili industrijske tvrtke to znači da gradnju AI rješenja često temelje na američkim API‑jima. Ako ti API‑ji uvedu agresivnu detekciju destilacije, strogu provjeru identiteta i potencijalna regionalna ograničenja, europski i regionalni korisnici mogli bi osjetiti frikciju i rast troškova mnogo prije nego što dobiju obećane koristi.

Istodobno se otvara prostor za europske igrače poput Mistral AI, Aleph Alpha ili za regionalne cloud pružatelje koji nude „suverenu“ AI infrastrukturu. U regiji već vidimo inicijative za modele prilagođene južnoslavenskim jezicima; kombinacija lokalnog znanja i usklađenosti s EU regulativom može postati realan adut.

Za Zagreb, Ljubljanu, Beograd ili Sarajevo to je i prilika i izazov: bez vlastitog tehnološkog sloja riskiramo da ostanemo samo korisnici i regulatori, ne i kreatori pravila.

6. Pogled unaprijed: fragmentirani svijet i strategija više modela

Što je realno očekivati u sljedećih godinu‑dvije?

Tehnički:

  • strože ograničavanje velikih količina API prometa, posebno iz „rizičnih“ podatkovnih centara i zemalja,
  • napredne analitičke sustave koji traže obrasce karakteristične za destilaciju (sustavna pokrivenost sposobnosti, ponavljajući upiti, masovna paralelizacija),
  • uvjete korištenja koji izričito zabranjuju „ekstrakciju modela“ i predviđaju sankcije.

Politički:

  • slučaj će ojačati one u Washingtonu koji traže strože kontrole izvoza čipova i tehnologije prema Kini,
  • Kina će dodatno ubrzati razvoj vlastitih čipova i modela kako bi smanjila ovisnost o američkim dobavljačima.

Tržišno:

  • tvrtke će biti prisiljene razmišljati u smjeru multi‑model i multi‑cloud strategije: ne oslanjati se samo na jednog dobavljača i imati jasne planove B,
  • porast će interes za modele koje je moguće pokretati lokalno ili u europskim/regionalnim oblacima, čak i ako su nešto slabiji od apsolutnog vrha.

Za hrvatske i regionalne startupove i poduzeća to znači vrlo konkretna pitanja: ako sutra vaš glavni AI dobavljač promijeni cijene ili uvjete pristupa, možete li se realno prebaciti na drugi model? Kako ćete uskladiti vlastito treniranje modela s EU regulativom, a da vas partneri ne optuže za „destilaciju“?

7. Zaključak

Anthropicov obračun s kineskim laboratorijima destilaciju diže na razinu političkog pitanja: više se ne radi samo o tehnici treniranja, nego o tome tko kontrolira širenje AI sposobnosti po svijetu. Reakcija na to gura ekosustav prema blokovskoj podjeli – zatvoreniji američki i kineski sustavi, a između njih Europa i jugoistočna Europa u potrazi za vlastitim putem.

Ključno pitanje za našu regiju glasi: koliko si dugoročno možemo priuštiti da nam najvažnija digitalna infrastruktura bude u rukama nekoliko laboratorija izvan EU – i hoćemo li iskoristiti ovu fazu da izgradimo barem dio vlastitog AI sloja.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.