Naslov in uvod
Pentagon je raje pripravljen zgraditi lastne velike jezikovne modele kot sprejeti pogodbene omejitve enega najbolj izpostavljenih "varnih" AI laboratorijev na svetu. Ta odločitev pove več o prihodnosti vojaške umetne inteligence kot večina uradnih strategij.
Javni etični okvir Anthropica je trčil ob realpolitiko nacionalne varnosti – in za zdaj izgublja. V nadaljevanju analiziramo, kaj preobrat Pentagona pomeni za Anthropic, tekmece, kot sta OpenAI in xAI, ter za evropske države. In še bolj neprijetno vprašanje: ali lahko koncept "odgovornega AI" preživi stik z vojaško-industrijskim kompleksom?
Novica na kratko
Kot poroča TechCrunch na podlagi pogovora Bloomberga z glavnim digitalnim in AI uradnikom Pentagona Cameronom Stanleyjem, ameriško obrambno ministrstvo (DoD) aktivno razvija lastne velike jezikovne modele (LLM), ki bodo delovali v državnih okoljih pod popolnim nadzorom vlade. Inženirsko delo že poteka, prve operativne uporabe naj bi sledile kmalu.
Temu je predhodil razpad domnevno 200‑milijonske pogodbe med Anthropicom in Pentagonom. Po navedbah TechCruncha so se pogajanja zalomila pri vprašanju, kako neomejen dostop do modelov bi imela vojska. Anthropic je želel v pogodbo zapisati prepoved uporabe za množični nadzor nad Američani ter za orožje, ki bi lahko streljalo brez človeškega nadzora. Pentagon se ni želel zavezati.
Medtem ko je partnerstvo razpadalo, je OpenAI sklenil lastni dogovor z DoD, ministrstvo pa je podpisalo tudi sporazum z xAI Elona Muska za uporabo modela Grok v tajnih sistemih. Ameriški obrambni minister Pete Hegseth je Anthropic označil za "tveganje v dobavni verigi", kar podjetja, ki sodelujejo s Pentagonom, de facto izloči iz sodelovanja z Anthropicom. Anthropic se proti oznaki pravno bori.
Zakaj je to pomembno
Ne gre le za menjavo dobavitelja v Washingtonu. Gre za test, ali lahko komercialna AI podjetja vojski največje sile sveta postavijo jasne etične meje – in prvi rezultat ni vzpodbuden.
Kdo pridobi?
Kratkoročno predvsem OpenAI in xAI. Postajata privzeta zasebna partnerja ameriške vojske pri uvajanju generativne umetne inteligence, Anthropic pa je označen kot operativno tvegan. To ne vpliva le na pogodbe v ZDA, ampak tudi na zavezniške in NATO projekte, kjer Washington pogosto postavlja tehnološki standard.
Pentagon si hkrati utrjuje nadzor. Z gradnjo lastnih LLM‑jev v državnih okoljih zmanjšuje odvisnost od enega ponudnika in lahko modele prilagodi lastnim pravilom uporabe – brez trmastega partnerja, ki vztraja pri pogodbenih prepovedih.
Kdo izgubi?
Anthropic izgublja prihodek, vpliv in dostop do strateškega kupca. Še pomembnejši poraženec pa je ideja, da lahko velika AI podjetja učinkovito rečejo "ne" določenim vojaškim uporabam in kljub temu ostanejo ključni partnerji držav.
Signal je oster: če boste vztrajali pri izrecnih omejitvah glede nadzora in avtonomnega orožja, vas bo Pentagon obšel – morda pa vas bo še razglasil za tveganje v dobavni verigi. Za ustanovitelje in investitorje v Silicijevi dolini bo to močno vplivalo na to, kako daleč bodo šli pri uveljavljanju lastnih etičnih okvirjev.
Kratkoročno odločitev spremlja še večja fragmentacija: več različnih vladnih modelov, zaprti evalvacijski standardi in še več skrivnosti. Civilna družba, raziskovalci in celo zavezniki bodo še težje razumeli, kje dejansko potekajo rdeče črte.
Širša slika
Primer leži na presečišču treh trendov, ki jih spremljamo že več let.
1. Militarizacija temeljnih modelov.
Od ozko usmerjenih sistemov (npr. prepoznavanje slik za dronovske operacije) smo prešli do uporabe splošnonamenskih modelov neposredno v vojaških procesih. Pentagonska želja po "neomejenem" dostopu do modelov Anthropica je prav to: želi enako prilagodljive modele kot civilni uporabniki – le brez varnostnih omejitev.
2. Konec obdobja "upora zaposlenih".
Ko so zaposleni pri Googlu leta 2018 protestirali zaradi projekta Maven, so se tehnološki velikani resno bali etikete vojaškega dobavitelja. Danes OpenAI in xAI odkrito sprejemata obrambne pogodbe, podjetje, ki najbolj vztraja pri etičnih omejitvah, pa je izrinjeno. Razmerje moči med aktivizmom zaposlenih, internimi etičnimi odbori in interesi nacionalne varnosti se je bistveno premaknilo.
3. AI suverenost varnostnih organov.
Obveščevalne in varnostne službe po svetu vse bolj verjamejo, da se za občutljivo rabo AI ne morejo zanesti le na komercialne oblačne storitve. Pentagonski razvoj internih LLM‑jev je del istega vala kot suvereni oblaki, lastni podatkovni centri in modeli, prilagojeni z zaupno vojaško podatkovno bazo. Podobne razprave – čeprav manj glasno – potekajo tudi v evropskih prestolnicah.
V primerjavi s konkurenti se je Anthropic pozicioniral kot podjetje, ki daje prednost varnosti in t. i. "constitutional AI". Zdaj se je ta strategija soočila z najtežjim naročnikom – tistim, za katerega "varnost" pomeni prednost na bojišču, ne pa omejitve zaradi človekovih pravic. OpenAI in xAI sta trenutno očitno pripravljena več odločitev prepustiti zakulisnim dogovorom.
Dolgoročno obstaja tveganje, da bo vojaško povpraševanje bolj kot civilne norme ali regulativa oblikovalo sam tehnološki vrh. Ko bodo LLM‑ji množično optimizirani za vojaške cilje, se arhitekture in podatkovne zbirke ne bodo zlahka zaprle v strogo tajne prostore.
Evropski in regionalni pogled
Za Evropo je to hkrati opozorilo in priložnost.
Najprej opozorilo: če bodo ZDA vgradile OpenAI, xAI in lastne modele globoko v NATO sisteme poveljevanja, bodo pod pritiskom tudi evropske vojske. Argument interoperabilnosti jih bo potiskal k isti tehnološki skladovnici, četudi to ni v celoti skladno z evropskim pravnim redom in vrednotami.
Nato še pravni vidik: Uredba EU o umetni inteligenci (AI Act) vojaško rabo v veliki meri izključuje, politični pritisk, da se jasneje opredelijo meje, pa narašča – zlasti pri avtonomnem orožju in množičnem nadzoru. Spopad med Pentagonom in Anthropicom bo oborožil obe strani razprave: varnostni sektor bo trdil, da si Evropa ne more privoščiti "okov", ker ZDA že pospešeno vlagajo. Zagovorniki človekovih pravic bodo odgovorili, da primer dokazuje nujnost jasno določenih, demokratično sprejetih rdečih črt.
Za slovenske in širše evropske akterje obstaja tudi priložnost. Evropska podjetja, kot sta denimo Aleph Alpha ali Mistral AI, se lahko pozicionirajo kot partnerji, ki združujejo zmogljivost z revizijsko sledjo in skladnostjo z evropskim pravnim redom. Tudi slovenska podjetja in raziskovalne skupine, ki delajo na varnih in razložljivih modelih, bi lahko našla nišne projekte v obrambnem in varnostnem sektorju EU.
A to zahteva politično jasnost: ali bodo evropske vlade pripravljene sprejeti strožje omejitve kot Pentagon – tudi za ceno počasnejše uvedbe nekaterih zmogljivosti?
Pogled naprej
V naslednjih 1–2 letih je vredno spremljati tri stvari.
1. Sodna bitka Anthropica.
Pravni izziv oznake "tveganje v dobavni verigi" bi lahko postal pomemben precedens glede tega, kako daleč lahko država seže pri kaznovanju podjetja, ki zavrne določene vojaške uporabe. Če Anthropic uspe, bo to ohladilo željo politikov po hitrih črnih listah. Če izgubi, bo sporočilo industriji jasno: etični ugovori lahko imajo visoko ceno.
2. Dejansko zmogljivost vladnih LLM‑jev.
Razvoj konkurenčnih modelov je drag in kadrovsko zahteven. Pentagon ima denar, vprašanje pa je, ali lahko v sistemu tajnosti in birokracije dolgoročno zadrži vrhunske raziskovalce – ali bo večino dela opravila industrija prek pogodb. Ključno bo, ali bodo ti modeli:
- dosegali komercialne zmogljivosti,
- neposredno vgrajeni v odločitvene in obveščevalne procese,
- podvrženi kakršnemukoli neodvisnemu nadzoru.
3. Reakcija zaveznikov in podjetij.
Če bodo zavezniške države tiho sledile Pentagonu, bo Anthropic hitro postal eksotika v obrambnih krogih in se bo moral še močneje usmeriti v civilni in podjetniški del trga. Če pa ena večja država – morda znotraj EU – javno podpre pristop strogih omejitev, bi lahko nastal alternativen model sodelovanja med AI podjetji in državo.
Za slovenske razvijalce in startupe je ključno strateško vprašanje: ali v etične kodekse in pogoje uporabe jasno zapisati omejitve glede vojaških projektov ali jih pustiti namerno ohlapne in se zanašati na ad‑hoc odločitve. Primer Anthropica kaže, kako hitro lahko nejasna siva cona izgine, ko pride do več sto milijonov vrednih pogodb.
Zaključek
Odločitev Pentagona, da izrine Anthropic in gradi lastne jezikovne modele, je prelomni trenutek v militarizaciji generativne umetne inteligence. Kaže, da se mora pri trku med "AI varnostjo" in interesi nacionalne varnosti prilagoditi ponudnik – ne država. Ne glede na izid sodnega postopka bo vsak večji AI laboratorij na novo premislil svoje rdeče črte. Ključno vprašanje za evropske demokracije pa ostaja: kdo naj jih v resnici postavlja – parlamenti, generali ali upravni odbori tehnoloških podjetij?



