1. Naslov in uvod
Spor med Anthropicom in ameriškim Pentagonom je več kot prepir okoli enega državnega razpisa. Prvič v praksi vidimo, kaj bo pomenila "suverenost umetne inteligence": kdo ima zadnjo besedo pri tem, kaj lahko temeljni modeli počnejo – izvoljene vlade ali podjetja, ki jih razvijajo?
Pentagon naj bi bil pripravljen uporabiti izredna pooblastila in prisiliti Anthropic, da zrahlja varovalke svojega modela. S tem se piše precedens, ki bo vplival tudi na evropske uporabnike in vlagatelje. V nadaljevanju analiziramo, kaj je res na kocki, kdo lahko kratkoročno zmaga ter kakšne lekcije iz tega izhajajo za Slovenijo in EU.
2. Kaj se je zgodilo (na kratko)
Kot poroča TechCrunch na podlagi virov Axios in Reuters, je ameriško ministrstvo za obrambo dalo Anthropicu ultimat: do petka zvečer mora vojski omogočiti praktično neomejen dostop do svojega modela umetne inteligence ali pa se soočiti s hudimi posledicami.
Med omenjenimi ukrepi sta oznaka "tveganje v dobavni verigi" – ta se običajno uporablja za tuje nasprotnike – ter sklicevanje na Defense Production Act (DPA). Gre za zakon, ki predsedniku ZDA omogoča, da podjetjem odredi prednostno izpolnjevanje naročil za potrebe nacionalne varnosti. Med pandemijo covida‑19 je bil uporabljen za povečanje proizvodnje ventilatorjev in zaščitne opreme.
Anthropic je že dlje časa jasen, da ne želi sodelovati pri razvoju popolnoma avtonomnega orožja ali množičnega nadzora prebivalstva. Po navedbah Reutersa, ki jih povzema TechCrunch, podjetje teh omejitev ne namerava omiliti. Pentagon pa trdi, da morajo uporabo tovrstnih sistemov določati ameriška zakonodaja in demokratičen nadzor, ne pa interni pogoji zasebnega ponudnika. Pri tem je Anthropic trenutno edini ponudnik t. i. "frontier" modela z dostopom do zaupnih podatkov Pentagona, kar bistveno dviguje vložek.
3. Zakaj je to pomembno
Na površini gre za pogodbeno razpravo. V resnici pa za vprašanje, kdo določa rdeče črte pri splošnonamenski umetni inteligenci: država ali inženirji.
Podjetja, kot je Anthropic, so svojo identiteto zgradila okoli t. i. varnostno usmerjene umetne inteligence. To pomeni, da v modele vgrajujejo normativne omejitve – tudi takrat, ko je neka uporaba tehnično in pravno mogoča. Če lahko ameriška administracija s sklicevanjem na DPA enostransko prepiše te omejitve, je sporočilo jasno: etika umetne inteligence velja le, dokler ne trči ob interese nacionalne varnosti.
Kratkoročno so zmagovalci predvsem konkurenti, ki so pripravljeni daleč bolj sodelovati z državo. TechCrunch omenja, da je Pentagon že sklenil dogovor za uporabo modela Grok podjetja xAI v zaupnih sistemih. Če Anthropic ostane nepopustljiv, se lahko vojska in politični odločevalci še bolj nagnejo k takim ponudnikom – ne nujno zato, ker so tehnološko boljši, temveč ker so politično bolj prilagodljivi.
Toda tudi Pentagon v tej zgodbi ne izpade močno. Izkaže se, da je kršil lastno priporočilo iz časa Bidenove administracije, naj se zaupni sistemi ne zanašajo na enega samega ponudnika. Obrambno ministrstvo ima očitno resen problem odvisnosti od ene družbe. Uporaba DPA kot "hitre rešitve" za slabo nabavno strategijo daje vtis improvizacije, ne strateškega upravljanja ključne tehnologije.
Največja škoda pa lahko nastane na ravni zaupanja v ZDA kot primarno lokacijo za razvoj vrhunskih modelov. Če lahko politika brez jasnih pravil preoblikuje poslovni model laboratorija, bo vse več ustanoviteljev razmišljalo o večjurisdikcijskih strukturah, investitorji pa bodo tveganje politične prisile začeli računati v svoje modele.
4. Širši kontekst
Ta spor se lepo vklaplja v več širših trendov.
Prvič, močno spominja na spor med Applom in FBI okoli šifriranja leta 2016. Takrat je ameriška vlada želela, da Apple pripravi posebno različico sistema iOS, ki bi omogočila lažji dostop do zaklenjenih telefonov. Apple je trdil, da bi s tem enkrat za vselej oslabil zaupanje v varnost svojih naprav. Če danes zamenjamo "šifriranje" z "varovalke v modelu", je logika podobna: posebna, manj omejena različica za enega naročnika dejansko spremeni izhodišča za celotno platformo.
Drugič, umetna inteligenca je v ZDA postala del kulturnih vojn. Kot navaja TechCrunch, so nekateri predstavniki administracije varnostne politike Anthropica označili za ideološko pristranske. To je skrb vzbujajoče za vse, ki so upali na bolj strokovno, manj politično obremenjeno urejanje tveganj. Če se filtri in omejitve rabe predstavljajo kot "preveč progresivni" ali "nepatriotski", se laboratoriji hitro znajdejo pod pritiskom, da se prilagodijo trenutni politični večini.
Tretjič, zgodba razgali, kako močno so vlade po svetu odvisne od nekaj zasebnih ponudnikov vrhunskih modelov. ZDA, Kitajska in EU preizkušajo različne kombinacije subvencij, regulacije in pritiska, da bi to obvladale. Spor Pentagon–Anthropic je ameriška različica te napetosti – bolj neposredna in javna, kot smo je vajeni.
Če vse to primerjamo z evropskim pristopom, vidimo zanimiv kontrast. Uredba EU o umetni inteligenci določa vnaprejšnja pravila za kategorije uporabe (npr. prepoved določenih oblik biometričnega nadzora), medtem ko se Pentagon zdi ujet v ad‑hoc pogajanja z vsakim ponudnikom posebej. Evropa skuša stvari urejati z zakoni, ZDA v tem primeru s posli in vzvodi izvršne veje oblasti.
5. Evropski in slovenski vidik
Za evropske – in s tem tudi slovenske – uporabnike je ta zgodba opomnik, da "ameriška umetna inteligenca" ni nevtralna infrastruktura, temveč orodje, ki ga sooblikuje ameriška politika. Če bo Anthropic prisiljen razviti bolj popustljivo, vojaško različico svojega modela, se pojavi vprašanje: kako stroga bo ločitev med to verzijo in tisto, ki jo uporabljajo banke, zavarovalnice ali celo javna uprava v EU prek oblaka?
Evropska zakonodaja, od GDPR do Akta o digitalnih storitvah in nove Uredbe o umetni inteligenci, predpostavlja preglednost in sledljivost odgovornosti. Če bodo ključne odločitve o zmogljivostih modela sprejemane v tajnih postopkih v Washingtonu, bo evropskim regulatorjem težko realno oceniti tveganja.
Za slovensko gospodarstvo, ki pri uvajanju napredne umetne inteligence večinoma uporablja storitve ameriških ponudnikov v oblaku, to pomeni dodatno strateško tveganje. Podobno kot pri oblaku ali polprevodnikih tudi tu postajamo odvisni od odločitev tuje vlade.
Po drugi strani se odpira priložnost za evropske pobude. Če bi EU – ob sodelovanju držav, kot sta Nemčija in Francija, ter regionalnih središč, kot je Ljubljana – zgradila konkurenčen ekosistem temeljnih modelov, jasno ločen od ameriške obrambne politike, bi takšne zgodbe postale močan tržni argument. A za to bo potrebna resna industrijska politika, ne zgolj regulacija.
6. Pogled naprej
Možnih scenarijev je več.
Najverjetnejši je kompromis, zavit v diplomatski jezik. Anthropic lahko pristane na bolj ciljno usmerjene vojaške primere uporabe (npr. analitika, simulacije, pomoč pri načrtovanju), ne da bi prekoračil svoje rdeče črte glede avtonomnega orožja in množičnega nadzora. Pentagon bi se v zameno izognil najbolj agresivni uporabi DPA. Formalno bi lahko obe strani razglasili zmago.
Težji scenarij je sodni spor. Če bi vlada dejansko izdala zavezujoč ukaz na podlagi DPA, bi Anthropic lahko poskušal dokazati, da gre za zlorabo orodja, namenjenega kriznim razmeram v fizični proizvodnji, ne za vsiljevanje političnih preferenc pri programski opremi. Tak proces bi odprl širšo razpravo o tem, kje so meje izvršne oblasti v dobi umetne inteligence.
Za preostalo industrijo je nauk že zdaj jasen: delovanje na tehnološkem robu v ZDA pomeni, da imate nacionalno varnost za tihega solastnika. Zato lahko pričakujemo:
- večrazsežne korporativne strukture (hčerinske družbe v EU, VB, Aziji),
- večji poudarek na odprtokodnih in lokalno nameščenih modelih, ki jih država težje neposredno prevzame,
- pritisk na zakonodajalce, da bolj natančno določijo meje uporabe DPA in podobnih instrumentov na področju umetne inteligence.
Za Slovenijo in EU bo ključno, ali se bodo ameriške vojaške zahteve začele odražati tudi v komercialnih modelih, ki jih uporabljamo tukaj. Če se bo to zgodilo, bo razprava o "evropski digitalni suverenosti" nenadoma dobila zelo konkreten pomen.
7. Bistvo
Spor Anthropic–Pentagon ni predvsem zgodba o enem razpisu, temveč o tem, ali bodo laboratoriji, ki razvijajo najmočnejše modele, smeli vztrajati pri lastnih etičnih omejitvah tudi takrat, ko jim nasproti stoji država. Če ZDA normalizirajo uporabo Defense Production Act proti domačim ponudnikom umetne inteligence, bo zaupanje v ameriško upravljanje te tehnologije načeto – in pritisk, da Evropa razvije lastne zmogljivosti, še večji. Ključno vprašanje za vas kot uporabnika je: komu zaupate, da določi, česa vaš model ne sme početi – programerjem, politikom ali generalom?



