1. Naslov in uvod
Anthropic je javno obtožil tri kitajske laboratorije, da so z več kot 24.000 lažnimi računi množično “črpali” zmogljivosti Claudea in jih vgradili v lastne modele. Ne gre za klasični industrijski vohunstvo, temveč za novo fronto: sistematično destilacijo prek API‑ja.
Zakaj bi vas to moralo zanimati v Sloveniji? Ker razkrije, kako krhki so temelji, na katerih danes gradijo skoraj vsi domači startupi in podjetja, ki uporabljajo velike modele v oblaku. V nadaljevanju analiziram, kaj se je zgodilo, zakaj Anthropic dogodek povezuje z ameriškimi izvoznimi omejitvami čipov in kakšne posledice ima to za evropske – in slovenske – uporabnike.
2. Novica na kratko
Kot poroča TechCrunch, Anthropic trdi, da so kitajska podjetja DeepSeek, Moonshot AI in MiniMax ustvarila več kot 24.000 lažnih računov za dostop do Claudea. Ti računi naj bi skupaj generirali prek 16 milijonov interakcij, zasnovanih za destilacijo – učenje lastnih modelov na podlagi izhodov močnejšega modela.
Po navedbah Anthropica so laboratoriji ciljali na najbolj diferencirane sposobnosti Claudea: napredno sklepanje, uporabo orodij, programiranje, analizo podatkov in razvoj "agentov", ki upravljajo računalnik. Pri enem od laboratorijev naj bi polovica celotnega prometa po izidu nove verzije Claudea v zelo kratkem času “preklopila” prav nanj.
Obtožbe prihajajo v trenutku, ko v ZDA poteka burna razprava o izvozu naprednih AI čipov na Kitajsko. TechCrunch navaja, da je administracija Donalda Trumpa nedavno dovolila podjetjem, kot je Nvidia, prodajo zmogljivih pospeševalnikov (npr. H200) na kitajski trg. Anthropic trdi, da obseg takšnih destilacij zahteva dostop do teh čipov in s primerom argumentira za strožje omejitve.
3. Zakaj je to pomembno: poslovni model API‑jev na udaru
To, kar Anthropic označuje kot “destilacijski napad”, je pravzaprav trk dveh vizij interneta. Na eni strani je logika “če plačam API, lahko z izhodi počnem, kar želim”. Na drugi strani je ideja, da so sposobnosti in varnostni mehanizmi, vgrajeni v Claudea, rezultat ogromnih investicij in bi morali biti vsaj deloma zaščiteni kot intelektualna lastnina.
Kdo pridobi? Kratkoročno laboratoriji, kot je DeepSeek. Namesto da bi sami več let razvijali tehnike za razmišljanje, usklajenost z vrednotami in uporabo orodij, lahko Anthropicov API obravnavajo kot zelo zgoščeno učno gradivo in ga prelij ejo v svoje modele. To je bližnjica, ki močno zniža stroške.
Izgubljajo ameriški frontier laboratoriji, katerih poslovni model temelji na dveh predpostavkah: da je njihove modele težko kopirati in da bodo varovalke v teh modelih resno omejevale zlorabe. Destilacija spodkopava oboje – zmogljivosti lahko v veliki meri prenesete, varovalke pa po poti odvržete.
Tvega pa tudi širši ekosistem. Če je mogoče vrhunske modele z dovolj denarja in GPU‑jev delno “skopirati” prek API‑ja, se bo vrednost inovacij premaknila iz javnega objavljanja raziskav in varnostnih analiz v zapiranje in skrivnostnost. To je slaba novica za akademsko skupnost, odprtokodne projekte in posledično tudi za varnost.
Anthropic zato s tem primerom ne pošilja samo signala Kitajski, temveč celotni industriji: množično distiliranje prek API‑jev bo obravnavano kot napad, ne kot pametno testiranje.
4. Širša slika: od scrapinga podatkov do ekstrakcije zmožnosti
Zgodba ima zgodovinske vzporednice. Družbena omrežja so leta opozarjala na konkurente, ki so jim strgali javne podatke. Iskalniki že dolgo destilirajo uporabniške poizvedbe v lastne modele uvrščanja. Tudi v svetu odprte kode so modeli pogosto učeni na izhodih zaprtih modelov.
Novo pa je troje: obseg, geopolitični kontekst in varnost. Destilirati model, ki piše marketinška besedila, je eno; destilirati model, ki v sebi nosi znanje o biologiji, kibernetski varnosti in hkrati varovalke pred zlorabo, pa nekaj povsem drugega.
Primer Anthropic se lepo vklaplja v tri trende:
- Kontrola dostopa kot orožje. OpenAI že omejuje dostop v določenih državah, Google in drugi zaostrujejo pogoje uporabe. Anthropic zdaj jasno povezuje dostop z geopolitičnim tveganjem. API‑ji frontier modelov niso več nevtralna storitev v oblaku, temveč strateški vzvod.
- Tekma model proti modelu. DeepSeek je z modelom R1 pokazal, da se da z razmeroma malo denarja doseči zmogljivosti blizu ameriških velikanov. Če bo njihov prihajajoči DeepSeek V4 resnično prehitel Claude in ChatGPT pri programiranju, se bo pritisk ameriških podjetij za omejevanje “brezplačnega” kopiranja še okrepil.
- Varnost kot industrijska politika. Ko Anthropic trdi, da destilacija odstrani varovalke in s tem poveča tveganje za kibernetske napade ali bioterorizem, povezuje lastni komercialni interes z narativo nacionalne varnosti. Varnost postane argument ne le za tehnične odločitve, temveč tudi za izvozne omejitve.
Industrija se tako premika iz tekmovanja “kdo ima najboljši model” v spor “kdo nadzoruje dostop, podatkovne tokove in računske vire”.
5. Evropski in slovenski vidik: med regulacijo in odvisnostjo
Evropa v tej zgodbi nikakor ni stranski lik. Večina evropskih podjetij – od bank do industrije 4.0 – uporablja ameriške modele prek API‑jev AWS‑a, Azurea, Googla ali neposredno pri ponudnikih, kot sta Anthropic in OpenAI. Če se bo dostop začel politizirati, bodo evropska podjetja hitro ugotovila, da temeljne gradnike svoje digitalne strategije nimajo pod lastnim nadzorom.
EU AI Act, GDPR in drugi predpisi bodo dodatno spodbujali ponudnike, da v Evropi uvedejo stroge kontrole: natančno beleženje uporabe, preverjanje identitete, zaznavanje anomalij. To pomeni večjo pravno varnost, a tudi več trenja, stroškov in tveganje, da bodo nekateri napredni modeli preprosto nedosegljivi ali bistveno dražji.
Po drugi strani se za evropske akterje – Mistral, Aleph Alpha, pa tudi manjše slovenske pobude na področju jezikovnih modelov za slovenščino – odpira priložnost: ponuditi “evropske” modele, trenirane in gostovane v EU, skladne z evropskimi pravili. Za banke, zavarovalnice in javno upravo v Ljubljani bo argument digitalne suverenosti vse bolj pragmatičen, ne ideološki.
Vprašanje pa ostaja, ali lahko Evropa (in z njo Slovenija) brez lastnih vrhunskih modelov resno vpliva na globalna pravila igre – ali bo spet predvsem potrošnik in regulator, ne pa tudi tehnološki ustvarjalec.
6. Pogled naprej: tiho blokiranje, glasna fragmentacija
Iz napovedi Anthropica in poročanja TechCruncha je razmeroma jasno, kam se stvari premikajo.
Tehnično lahko pričakujemo:
- ostrejše omejevanje visokega prometa prek API‑jev iz določenih regij in podatkovnih centrov,
- napredne modele za odkrivanje destilacije na ravni vzorcev poizvedb,
- strožje pogodbe, ki “modelno ekstrakcijo” eksplicitno prepovedujejo in omogočajo sodne spore.
Politično bo primer uporabljen kot argument v Washingtonu, da je sprostitev izvoza čipov napaka – če ameriški GPU‑ji napajajo kopiranje ameriških modelov, je zgodba za politične jastrebe preprosta. Možen je premik k še bolj granuliranim pravilom: ne samo, katera država, ampak kateri kupec in za kak namen sme dobiti določeno raven računske moči.
Poslovno se bližamo bolj razdrobljenemu svetu. Del ponudnikov bo šel v smer zaprtih, strogo nadzorovanih API‑jev in regijsko omejenega dostopa. Drugi – predvsem odprtokodni ekosistem – bodo igrali na karto odprtosti in skupnostnega razvoja, tudi za ceno, da bodo njihovi modeli lažje destilirani.
Za slovenska podjetja to pomeni, da “uporabljam ChatGPT/Claude prek API‑ja” dolgoročno ni več neproblematična izbira. Pomisliti bo treba na diverzifikacijo modelov, na možnost lokalnega poganjanja in na partnerje, ki razumejo tako tehniko kot regulativo EU.
7. Bistvo
Spor Anthropic–kitajski laboratoriji destilacijo postavlja v središče naslednje faze AI‑tekme: to ni več le raziskovalna tehnika, temveč domnevno orožje v gospodarski in geopolitični bitki.
Če bodo frontier modeli postali tržno in politično orožje, se bo svet AI še hitreje razdelil na zaprte bloke. Ključno vprašanje za Evropo – in za slovenske razvijalce – je, koliko strateške odvisnosti od peščice ameriških laboratorijev si lahko dolgoročno sploh še privoščimo.



