Pentagon protiv Anthropica: gdje pucaju crvene linije vojne umjetne inteligencije

23. veljače 2026.
5 min čitanja
Ilustracija vojnog zapovjednog centra s preklopljenim sučeljem AI chatbota

Uvod: trenutak istine za „odgovornu“ AI

Sukob između Anthropica i američkog Ministarstva obrane nije još jedna u nizu priča o velikim IT ugovorima, nego prvi ozbiljan crash‑test za etiku umjetne inteligencije u vojsci. Na jednoj strani je laboratorij koji gradi imidž sigurnije i opreznije alternative; na drugoj strani je Pentagon s ugovorom vrijednim 200 milijuna dolara i zahtjevima koji uključuju masovni nadzor i oružje koje puca bez čovjeka u petlji. U nastavku analiziram što se događa, zašto se tiče i Europe i Hrvatske te kakve signale šalje cijeloj industriji.

Vijest ukratko

Prema pisanju TechCruncha, koji se poziva na Axios, američki ministar obrane Pete Hegseth pozvao je izvršnog direktora Anthropica, Darija Amodeija, na hitan sastanak u Pentagon. Povod je spor oko toga kako vojska smije koristiti Anthropicove modele umjetne inteligencije Claude.

Kako navodi TechCrunch, Pentagon prijeti da će Anthropic proglasiti „rizikom u opskrbnom lancu“ – oznakom koja se u pravilu koristi za tvrtke iz država koje SAD smatra protivnicima. Razlog je odbijanje Anthropica da dopusti dvije vrste primjene: opsežan nadzor nad građanima SAD‑a i razvoj oružanih sustava koji mogu otvoriti vatru bez izravne ljudske odluke.

Anthropic je prošlog ljeta potpisao ugovor s Ministarstvom obrane vrijedan oko 200 milijuna dolara. Claude je navodno već korišten u specijalnoj operaciji 3. siječnja, koja je završila uhićenjem venezuelskog predsjednika Nicolása Madura. Izvor na kojeg se poziva Axios opisuje sastanak kao ultimatum: ili ćete „igrati po našim pravilima“, ili ćete biti praktički izbačeni iz obrambenog ekosustava.

Zašto je to važno

Ovaj slučaj otvara nekoliko ključnih pitanja za budućnost umjetne inteligencije.

Prvo, tko povlači crvene linije? Anthropic je jedna od rijetkih velikih AI tvrtki koja je eksplicitno obećala da neće podržavati određene vrste upotrebe, uključujući potpuno autonomno oružje i masovni nadzor. Ako sada popusti pod pritiskom, šalje jasnu poruku da su i najglasnije etičke deklaracije pregovarljive kada na stol dođu veliki državni ugovori.

Drugo, koliko je zdravo da obrambene sposobnosti ovise o privatnim dobavljačima? Iz perspektive Pentagona, ovisnost o jednoj kompaniji koja u jednom trenutku može reći „ne“ kritičnim funkcijama izgleda kao sigurnosni rizik. Otuda i prijetnja etiketom „rizik u opskrbnom lancu“, koja više djeluje kao politička palica nego kao tehnički opis – poruka drugim pružateljima usluga da previše otpora može imati ozbiljne posljedice.

Treće, cijeli AI ekosustav kroz ovaj sukob dobiva prvi konkretan pokazatelj koliko su održivi modeli „dual‑use“ tvrtki koje žele raditi i civilne i vojne projekte, ali uz vlastite etičke granice. Ako Anthropic bude kažnjen gubitkom ugovora i reputacijom „nepouzdanog“ partnera, mnogi će startupi u budućnosti radije šutjeti o tome što neće raditi, nego riskirati sukob s državom.

Šira slika

Ovo nije prvi put da se tehnologija nađe u klinču između vlastitih vrijednosti i sigurnosnih zahtjeva države. Već smo gledali pobune zaposlenika u Googleu i Microsoftu zbog vojnih projekata, rasprave oko nadzornih sustava i „oblačnih“ ugovora za obavještajne službe.

Razlika je u tome što su današnji modeli poput Claudea općenite platforme za razmišljanje i odlučivanje. Nisu samo alat za prepoznavanje lica ili vozila, nego sustavi koji mogu pomagati u planiranju operacija, analizi obavještajnih podataka, propagandi, kibernetičkoj obrani – praktički u svakom segmentu vojnog aparata. Tko kontrolira pravila njihove uporabe, u praksi određuje koliko će autonomije u vojsci postati „novo normalno“.

Korištenje pojma „rizik u opskrbnom lancu“ podsjeća na priče o Huaweiju, Kasperskom ili TikToku, gdje je naglasak bio na opasnosti od stranog utjecaja. Kod Anthropica je drugačije: riječ je o američkoj tvrtki koju se, prema objavljenim informacijama, pritišće zato što ima vlastite crvene linije. Problem nisu „tuđi špijuni“, nego mogućnost unutarnjeg otpora.

U međuvremenu konkurencija ne stoji. Neki pružatelji otvorenih modela tvrde da realno ne mogu i ne žele nadzirati vojnu uporabu; dio velikih igrača balansira između javnih ograničenja i tihe suradnje s državom; obrambni startupi u SAD‑u, Europi i Izraelu otvoreno obećavaju „AI‑prvu vojsku“. U tom kontekstu Anthropic – ako ustraje – predstavlja anomaliju, a ako popusti, potvrđuje trend da je prostor za tvrde etičke stavove u obrani vrlo uzak.

Europski i regionalni kontekst

Za Europu i države članice EU, uključujući Hrvatsku, ova priča ima posebno značenje. Europska unija je kroz GDPR, Digital Services Act, Digital Markets Act i uskoro AI Act jasno pokazala da ne želi društvo trajnog nadzora. Iako se AI Act u velikoj mjeri ne primjenjuje izravno na vojne sustave, politička poruka je jasna: masovna biometrijska identifikacija i nekontrolirana autonomija smatraju se neprihvatljivima.

Istovremeno, obrana EU uvelike se oslanja na NATO i američku tehnologiju. Hrvatska kao članica NATO‑a i EU nije iznimka: i naoružanje i komunikacijska infrastruktura u velikoj mjeri dolaze iz SAD‑a ili preko američkih partnera. Ako Washington počne jače gurati svoje AI dobavljače prema funkcionalnostima koje su u Europi politički ili pravno problematične, europske zemlje ulaze u neugodan procjep između sigurnosne ovisnosti i vlastitih vrijednosti.

Za digitalni ekosustav u Hrvatskoj i regiji (Zagreb, Ljubljana, Sarajevo, Beograd) ovaj slučaj je i upozorenje i prilika. Upozorenje zato što pokazuje koliko brzo pristup ključnim AI modelima može postati političko pitanje, slično kao što se dogodilo s 5G mrežama. Prilika zato što jača argument za ulaganje u europske i regionalne modele – bilo kroz istraživačke centre, bilo kroz javno‑privatna partnerstva – kako bi se smanjila ovisnost o rješenjima koja država dobavljača može u svakom trenutku „zategnuti“.

Europski obrambni AI startupi već pokušavaju iskoristiti taj prostor i nuditi se kao rješenja „usklađena s europskim vrijednostima“. Ako američki laboratoriji zbog pritiska politike počnu popuštati po pitanju nadzora i autonomnog oružja, europski i regionalni igrači mogu se pozicionirati upravo suprotno – sporiji, ali s jasnijim granicama.

Što dalje

U kratkom roku najrealniji je scenarij nekog oblika kompromisa. Anthropic će vjerojatno pokušati zadržati zabranu masovnog nadzora stanovništva i potpuno autonomnog oružja, ali će pristati na širu paletu vojnih primjena koje može prikazati kao „obrambene“ ili „podršku odlučivanju“. Pentagon bi tada mogao odustati od formalne oznake rizika, a obje strane bi dogovor prodale kao uspjeh.

Ako do kompromisa ne dođe i Anthropic odluči prije prekinuti suradnju nego mijenjati politike, to bi bio snažan znak da barem jedna velika AI tvrtka smatra principe važnijima od pojedinog ugovora. Takav potez bi mogao privući dio istraživača, zaposlenika i klijenata (uključujući europske institucije) koji žele partnera s jasnim crvenim linijama. No, otvorio bi i prostor konkurenciji da uđe dublje u Pentagon – možda upravo onoj konkurenciji koja nema tako stroga ograničenja.

Suprotni ekstrem bio bi da Pentagon zaista proglasi Anthropic „rizikom u opskrbnom lancu“. U tom bi slučaju efekt zastrašivanja bio ogroman: malo bi koji veliki izvođač, u SAD‑u ili drugdje, htio temeljiti ključne vojne sustave na platformi koju američka vlada službeno smatra problematičnom. Poruka sektoru bila bi jasna: tko želi ozbiljno u obranu, neka ne zapisuje previše krutih zabrana.

Za čitatelje u Hrvatskoj i regiji ključno je pratiti kako će se ova priča odraziti na europske rasprave o AI u vojsci, osobito u kontekstu EU AI Acta i inicijativa o zabrani potpuno autonomnog oružja. Hoće li EU i dalje ostati „glas savjesti“, dok praktične odluke donose drugi – ili će se pokušati definirati vlastite, operativne crvene linije i za obrambeni sektor?

Zaključak

Sukob između Anthropica i Pentagona prvi je veliki ispit izdržljivosti etike umjetne inteligencije u svijetu gdje sigurnosne prijetnje postaju sve realnije, a vojni proračuni rastu. Način na koji će se ova priča rasplesti oblikovat će ne samo budućnost Claudea u vojsci, nego i nepisana pravila odnosa između AI laboratorija i države. Ako se crvene linije izbrišu čim pritisak postane ozbiljan, ostat će pitanje: tko će uopće ostati da ih povuče – i hoćemo li sa Zapadnog Balkana i Europe imati ikakav utjecaj na taj proces?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.