Pentagon protiv Anthropica: kad "etička" umjetna inteligencija naleti na vojnu stvarnost

18. ožujka 2026.
5 min čitanja
Apstraktna ilustracija vojnog zapovjednog centra s AI podatkovnim tokovima

Naslov i uvod

Američki Pentagon očito radije gradi vlastite jezične modele nego da u ugovore unosi etičke zabrane koje traži jedan od najpoznatijih "sigurnih AI" laboratorija. Ta odluka govori više o budućnosti vojne umjetne inteligencije nego većina strateških dokumenata.

Javno isticanje etike u Anthropicovom pristupu upravo je doživjelo sudar s logikom nacionalne sigurnosti – i trenutno gubi. U nastavku analiziramo što za Anthropic, za rivale poput OpenAI‑ja i xAI‑ja te za Europu i regiju znači ovaj zaokret Pentagona. A u pozadini je ključno pitanje: može li koncept "odgovornog AI" preživjeti susret s obrambenim proračunima i tajnim sustavima?

Vijest ukratko

Kako prenosi TechCrunch, pozivajući se na razgovor Bloomberga s Cameronom Stanleyjem, glavnim digitalnim i AI dužnosnikom Pentagona, američko Ministarstvo obrane razvija vlastite velike jezične modele (LLM‑ove) za rad u okruženjima pod potpunom kontrolom države. Inženjerski rad je već započeo, a modeli bi trebali uskoro biti spremni za operativnu uporabu.

Tome je prethodio raspad ugovora vrijednog oko 200 milijuna dolara između Anthropica i Pentagona. Prema pisanju TechCruncha, pregovori su se slomili na pitanju koliko bi neograničen pristup Pentagon imao nad Anthropicovim modelima. Anthropic je želio ugovornu zabranu korištenja AI‑ja za masovni nadzor Amerikanaca i za oružje koje može pucati bez ljudske intervencije. Pentagon na to nije pristao.

U isto vrijeme OpenAI je sklopio vlastiti dogovor s Ministarstvom obrane, a potpisan je i sporazum s xAI‑jem Elona Muska o korištenju modela Grok u povjerljivim sustavima. Američki ministar obrane Pete Hegseth u međuvremenu je proglasio Anthropic "rizikom u opskrbnom lancu", oznakom koja se obično koristi za strane protivnike i koja tvrtkama koje rade s Pentagonom onemogućuje suradnju s Anthropicom. Anthropic tu odluku osporava na sudu.

Zašto je to važno

Ovdje se ne radi samo o promjeni dobavljača, nego o otvorenom sukobu između etičkih ograničenja privatne tvrtke i interesa vojne organizacije.

Tko dobiva?

Na kratki rok jasno dobivaju OpenAI i xAI. Oni postaju ključni privatni partneri najveće vojne sile pri uvođenju generativne umjetne inteligencije. To im daje i reputacijsku i tržišnu prednost za buduće poslove unutar NATO‑a i sa saveznicima.

Pentagon dobiva veću autonomiju. Razvoj vlastitih LLM‑ova u državnim okruženjima smanjuje ovisnost o komercijalnim pružateljima usluga i uklanja potrebu za pregovorima o crvenim linijama. Pravila korištenja – uključujući granicu između "pomoći pri odlučivanju" i de facto autonomnog naoružanja – definira sam sustav nacionalne sigurnosti.

Tko gubi?

Anthropic gubi velik posao, utjecaj u obrambnom ekosustavu i potencijal za buduće državne projekte. No najveći gubitnik je ideja da bi vodeći AI laboratoriji mogli postaviti čvrste etičke granice oko vojnih primjena i pritom ostati strateški dobavljači.

Poruka industriji je jasna: inzistiranje na izričitoj zabrani masovnog nadzora ili autonomnog oružja može vas stajati pristupa najvećem kupcu na svijetu – pa i završiti na svojevrsnoj crnoj listi. Za osnivače i ulagače, to će biti ozbiljan argument kada sljedeći put budu pisali "AI etički kodeks" za svoje proizvode.

Kratkoročno, ovo povećava fragmentaciju i netransparentnost: više paralelnih, zatvorenih državnih modela, manje uvida izvana, nejasni standardi testiranja. Građani, nevladine organizacije, znanstvenici – pa i saveznici – još će teže procjenjivati što se zapravo radi s vojnom umjetnom inteligencijom.

Šira slika

Ovaj slučaj lijepo se uklapa u tri šira trenda.

1. Militarizacija temeljnih modela.

Godinama se vojni AI razvijao za vrlo specifične zadatke: prepoznavanje slika, nadzor određenih područja, analiza presretnutih komunikacija. Današnji LLM‑ovi su univerzalni alati – mogu pisati izvješća, analizirati podatke, generirati lažne sadržaje, asistirati pri ciljanju. Zbog toga Pentagon želi "neograničen" pristup: isti tip snažnog modela kao u civilnom sektoru, samo bez ugrađenih kočnica.

2. Kraj ere otvorenih pobuna zaposlenika.

Sjećamo se otpora zaposlenika Googlea protiv projekta Maven 2018. godine. Tada se činilo da radnici mogu prisiliti veliku tehnološku kompaniju da odustane od vojnih ugovora. Danas vidimo drugačiju sliku: OpenAI i xAI otvoreno prihvaćaju suradnju s obranom, dok se tvrtka koja pokušava povući čvršće granice izbacuje iz sustava.

3. Suverenitet AI‑ja za sigurnosne službe.

Vlade širom svijeta žele manje ovisiti o komercijalnim oblačnim uslugama kada je riječ o osjetljivim podacima i sposobnostima. Nacionalni ili "suvereni" oblaci, vlastiti podatkovni centri, modeli trenirani na povjerljivim podacima – sve je to dio iste logike. Pentagonovi LLM‑ovi su samo najvidljiviji primjer.

Anthropic se brendirao kroz sigurnost i tzv. "constitutional AI" pristup. Ali u vojnom kontekstu "sigurnost" znači prvenstveno pouzdanost i operativnu prednost, a ne zaštitu privatnosti ili ljudskih prava. OpenAI i xAI trenutačno su spremniji prepustiti definiciju prihvatljive uporabe samom Ministarstvu obrane – daleko od očiju javnosti.

Posljedica može biti da vojni zahtjevi počnu značajno oblikovati tehnološki vrh. Ako se najnaprednije verzije modela prvo optimiziraju za ratne scenarije, arhitekture i prakse iz tih sustava lako će se preliti i u civilni svijet.

Europski i regionalni kut

Za Hrvatsku i širu EU ovaj slučaj je i upozorenje i potencijalna prilika.

Upozorenje je očito: ako se NATO‑ova digitalna infrastruktura sve više oslanja na LLM‑ove iz SAD‑a (OpenAI, xAI ili modele nastale unutar Pentagona), europske će se vojske naći pod snažnim pritiskom da koriste iste tehnologije radi interoperabilnosti. Time se, tiho i često bez javne rasprave, preuzimaju i američki obrasci upotrebe.

Istovremeno, EU kroz Akt o umjetnoj inteligenciji (EU AI Act) uspostavlja jedan od najstrožih civilnih okvira na svijetu, ali vojna uporaba ostaje uglavnom izvan njegova dosega. Rasprava o autonomnom oružju i masovnom nadzoru putem AI‑ja tek slijedi – i primjer Anthropic–Pentagon vjerojatno će se u toj raspravi često spominjati.

Za europske i regionalne dobavljače – od velikih igrača poput Aleph Alpha ili Mistral AI, do manjih timova u Zagrebu, Ljubljani ili Beogradu – otvara se prostor da se pozicioniraju kao partneri koji kombiniraju visok stupanj kontrole, revizije i usklađenosti s EU pravom. Ali to traži i političku volju: hoće li europske vlade doista pristati na strože etičke granice od Pentagona, čak i ako to znači nešto sporiji razvoj određenih vojnih kapaciteta?

Za Hrvatsku, članicu EU i NATO‑a, bit će ključno kako će se ti standardi prevesti na razinu Ministarstva obrane i MUP‑a: hoće li se usvojiti jasne javne politike o ograničavanju uporabe AI‑ja za nadzor i odlučivanje o sili, ili će se odluke donositi ad hoc, kroz pojedinačne projekte s malo transparentnosti.

Pogled unaprijed

U idućih 12–24 mjeseca vrijedi pratiti nekoliko stvari.

1. Sudski epilog za Anthropic.

Ako američki sudovi prihvate argument da je tvrtka kažnjena jer nije htjela omogućiti određene vojne primjene, to će ohrabriti slične poteze i drugdje. Ako pak Anthropic uspije, dobit ćemo važan presedan koji pokazuje da država ne može bez ograničenja koristiti klasifikaciju "rizika u opskrbnom lancu" kao političko oružje.

2. Koliko će Pentagonovi modeli stvarno vrijediti.

Razviti vlastiti LLM koji se može mjeriti s komercijalnim velikanima nije trivijalno. Pentagon ima novac, ali pitanje je ima li kulture i kadrova za dugoročan uspjeh – ili će većinu posla ionako raditi vanjski izvođači. Važno je vidjeti:

  • dosežu li ti modeli razinu vodećih komercijalnih modela,
  • ulaze li direktno u sustave zapovijedanja, nadzora i ciljanja,
  • i postoji li ikakav oblik neovisnog nadzora nad njihovim ponašanjem.

3. Kako će reagirati saveznici i tvrtke.

Ako ostale zapadne vlade prešutno prihvate Pentagonov pristup, Anthropic će vjerojatno završiti u niši civilnih i poslovnih primjena. Ako pak neka veća država – možda unutar EU – javno stane iza pristupa s čvršćim etičkim ograničenjima, to može otvoriti put alternativnom modelu suradnje između AI industrije i države.

Za tehnološke tvrtke u regiji, od zagrebačkih startupa do odjela u velikim bankama i telekomima, pitanje je vrlo praktično: postaviti jasne crvene linije za vojne i sigurnosne projekte, ili ostaviti sve u sivoj zoni "slučaj po slučaj"? Primjer Anthropica pokazuje da ta siva zona može vrlo brzo nestati kad u igri budu stotine milijuna i visoka politika.

Zaključak

Pentagonovo izbacivanje Anthropica iz obrambene jednadžbe i razvoj vlastitih LLM‑ova označava prekretnicu u militarizaciji generativne umjetne inteligencije. Pokazuje da se u sukobu između "AI sigurnosti" i prioriteta nacionalne sigurnosti očekuje da popusti dobavljač, a ne država. Bez obzira na ishod sudskog spora, svi veći AI igrači sada će ponovno crtati svoje etičke granice. Za demokratska društva, uključujući Hrvatsku, ostaje ključno pitanje: tko zapravo odlučuje gdje prestaje prihvatljiva uporaba vojne umjetne inteligencije – parlament, generali ili uprave nekoliko tehnoloških kompanija?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.