Sukob Anthropica i Pentagona: tko stvarno upravlja vrijednostima umjetne inteligencije?

24. veljače 2026.
5 min čitanja
Ilustracija državne zgrade nasuprot ikone mozga umjetne inteligencije

1. Naslov i uvod

Sukob između Anthropica i američkog Pentagona mnogo je više od spora oko jedne državne nabave. To je prvi veliki test u praksi: tko će u budućnosti određivati granice i vrijednosti temeljnih modela umjetne inteligencije – demokratski izabrane vlade ili privatni laboratoriji?

Ako je Pentagon doista spreman posegnuti za izvanrednim ovlastima kako bi prisilio Anthropic da olabavi ograničenja korištenja, pred našim očima nastaje presedan koji će utjecati i na europske korisnike, i na startupe iz Zagreba, Ljubljane ili Beograda. U nastavku analiziramo što je zapravo na kocki, tko kratkoročno dobiva ili gubi te što to znači za digitalnu suverenost EU i regije.


2. Vijest ukratko

TechCrunch, pozivajući se na Axios i Reuters, piše da je američko Ministarstvo obrane postavilo ultimatum Anthropicu: do petka navečer tvrtka mora vojsci omogućiti praktički neograničen pristup svom modelu umjetne inteligencije ili se suočiti s ozbiljnim posljedicama.

Kao mogućnosti se navode proglašenje Anthropica "rizikom u opskrbnom lancu" – oznaka koja se obično koristi za strane protivnike – ili pozivanje na Defense Production Act (DPA). DPA je zakon koji predsjedniku SAD-a daje ovlast da naloži tvrtkama da prioritetno ispunjavaju narudžbe povezane s nacionalnom sigurnošću. Tijekom pandemije COVID‑19 korišten je za ubrzanje proizvodnje respiratora i zaštitne opreme.

Anthropic već dugo javno tvrdi da ne želi da se njegova tehnologija koristi za potpuno autonomno oružje ili masovni nadzor američkih građana. Prema navodima Reutersa, koje prenosi TechCrunch, kompanija ne planira popustiti po tim pitanjima. Pentagon zauzvrat ističe da bi uporabu takvih sustava trebali uređivati američki zakoni i ustavni mehanizmi, a ne interni uvjeti privatnog dobavljača. Dodatnu težinu cijeloj priči daje činjenica da je Anthropic navodno jedini "frontier" laboratorij s pristupom klasificiranim sustavima Ministarstva obrane.


3. Zašto je ovo važno

Formalno gledano, radi se o sporu oko uvjeta suradnje. Suštinski, riječ je o pitanju tko ima pravo zadnje riječi nad time što će moćni opći modeli umjetne inteligencije smjeti raditi.

Anthropic i slične tvrtke izgradile su svoj brend upravo na tome da u svoje modele ugrađuju čvrste etičke zabrane – čak i kada je određena primjena tehnički izvediva i pravno moguća. To je važno i za privlačenje stručnjaka, i za povjerenje korisnika, i za odnos s regulatorima. Ako Bijela kuća može jednostrano pregaziti te crvene linije pozivajući se na DPA, poruka je jasna: etika vrijedi dok ne zasmeta sigurnosnim prioritetima.

Kratkoročno gledano, profitirati bi mogli konkurenti spremniji na tijesnu suradnju s državom. TechCrunch podsjeća da je Pentagon već dogovorio korištenje modela Grok (xAI) u klasificiranim sustavima. Ako Anthropic ostane tvrd, politička i poslovna težina može se preliti na "poslušnije" dobavljače – ne nužno zato što imaju bolje modele, već zato što su fleksibilniji oko vrijednosti.

No ni Pentagon ne izlazi neokrznut. Izvještaji upućuju na to da je Ministarstvo obrane zanemarilo preporuku iz doba Bidenove administracije da se izbjegava oslanjanje na jednog jedinog klasificiranog dobavljača. Drugim riječima, sami su si stvorili rizik ovisnosti o jednom vendoru. Korištenje DPA kao poluge za rješavanje tog propusta više izgleda kao panična reakcija nego kao promišljena strategija.

Za osnivače i ulagače, i u SAD-u i u Europi, poruka je neugodno jasna: ako ste na tehnološkoj granici umjetne inteligencije u SAD-u, morate računati da sigurnosna politika može preko noći promijeniti vašu strategiju. To će ubrzati razmišljanje o strukturama s više pravnih sjedišta i o diversifikaciji prema EU, UK ili drugim jurisdikcijama.


4. Šira slika

Ovaj slučaj nadovezuje se na povijest sukoba između tehnoloških kompanija i sigurnosnog aparata.

Najbliža paralela je spor Applea i FBI-a oko šifriranja iPhonea 2016. Tada je država tražila da Apple napravi posebno, oslabljeno izdanje iOS-a radi istrage. Apple je tvrdio da bi to jednim potezom potkopalo sigurnost svih korisnika. Danas, kad umjesto šifriranja govorimo o "ograničenjima korištenja" i "guardrailsima", logika je vrlo slična: verzija modela prilagođena samo za jednog državnog klijenta teško da ostaje izolirana. Ona neminovno utječe na arhitekturu i kulturu cijelog laboratorija.

Treba uzeti u obzir i visoku razinu politizacije umjetne inteligencije u SAD-u. Kako podsjeća TechCrunch, neki istaknuti članovi aktualne administracije javno su kritizirali sigurnosne politike Anthropica kao "ideološki obojene". Kad se filtre sadržaja i zabrane određenih primjena odmah prevodi u jezik "woke" vs. "patriotsko", tehnička rasprava o stvarnim rizicima gubi se u kulturnom ratu.

Globalno gledano, slučaj otkriva nelagodu demokratskih država pred činjenicom da su najmoćniji modeli u privatnim rukama. Kina je taj problem riješila daleko čvršćom državnom kontrolom. Europska unija pokušava unaprijed zadati pravila kroz Uredbu o umjetnoj inteligenciji i povezane propise (DSA, DMA). SAD se, čini se, kreće između samoregulacije, političkog pritiska i sada otvorenog oslanjanja na instrumente poput DPA-a.

Što više Washington poseže za ad hoc rješenjima i izvanrednim ovlastima, to europski, formalno-pravni pristup – koliko god birokratski bio – može postajati privlačniji tvrtkama koje cijene predvidljivost. No ta prednost vrijedi samo ako Europa, a možda i dio jugoistočne Europe, izgradi vlastite konkurentne modele.


5. Europski i regionalni kut

Za EU, a time i za Hrvatsku, Sloveniju i širu regiju, slučaj Anthropic–Pentagon još je jedan podsjetnik na digitalnu ovisnost o SAD-u. Državne institucije i kompanije u Hrvatskoj sve se više oslanjaju na generativnu umjetnu inteligenciju velikih američkih pružatelja, bilo direktno, bilo kroz oblačne platforme.

Europski pravni okvir – od GDPR-a preko Akta o digitalnim uslugama do Uredbe o umjetnoj inteligenciji – polazi od transparentnosti i jasnih lanaca odgovornosti. Ako američka država može tajno naručiti posebnu, manje ograničenu inačicu modela, europskim će regulatorima biti teško procijeniti stvarne rizike za, primjerice, banke, zdravstvo ili javnu upravu u EU.

U isto vrijeme, Hrvatska je članica EU i NATO-a te će dugoročno koristiti i američku vojnu tehnologiju. Linija između savezništva i prevelike ovisnosti postaje tanka. Za regionalnu startup scenu – od Zagreba preko Ljubljane do Sarajeva i Beograda – u svemu ovome leži i prilika: razvoj specijaliziranih, lokalno usklađenih modela koji imaju jasnu pravnu i etičku dimenziju unutar europskog okvira mogao bi postati konkurentska prednost.


6. Pogled unaprijed

Koji su mogući ishodi?

Najrealniji scenarij je neki oblik kompromisa. Anthropic bi mogao pristati na ograničene vojne primjene – recimo, analitičke alate pod strogom ljudskom kontrolom – bez formalnog kršenja svojih crvenih linija oko autonomnog oružja i masovnog nadzora. Pentagon bi, zauzvrat, odustao od otvorene prijetnje korištenjem DPA-a. Obje strane mogle bi to predstaviti kao potvrdu svojih načela.

Konfliktniji scenarij bio bi pravni spor, u kojem bi Anthropic pokušao osporiti primjenu DPA-a na svoje modele. Tada bi američki sudovi morali odgovoriti na pitanje koliko daleko smiju sezati izvanredne ovlasti izvršne vlasti kada je riječ o dvonamjenskom softveru. To je rasprava koja će ionako kad-tad doći na dnevni red.

Za ostatak industrije poruka je već dana: potpuna "neutralnost" više nije realna opcija za fronteirske laboratorije u SAD-u. Možemo očekivati:

  • složenije korporativne strukture s entitetima u više jurisdikcija,
  • veći fokus na otvorene i lokalno instalirane modele koje je teže direktno staviti pod državnu kontrolu,
  • jači pritisak prema zakonodavcima da jasno definiraju što se smije, a što ne smije raditi s tehnologijama ovakve snage.

Za Hrvatsku i regiju ključno će biti pitanje hoće li se američki sigurnosni zahtjevi preliti na komercijalne modele koje koristimo u bankarstvu, turizmu, javnom sektoru ili obrazovanju. Ako da, rasprava o digitalnoj suverenosti više neće biti akademska, nego vrlo konkretna ekonomska tema.


7. Zaključak

Sukob Anthropica i Pentagona nije tek priča o jednoj tenderskoj dokumentaciji, već test dopuštamo li da laboratoriji koji razvijaju najmoćnije modele zadrže vlastite etičke granice i kad im se suprotstavi država. Ako SAD normalizira korištenje Defense Production Acta protiv domaćih pružatelja umjetne inteligencije, povjerenje u američki model upravljanja tehnologijom bit će narušeno, a pritisak da Europa i naša regija razviju vlastite kapacitete dodatno će porasti. Ključno pitanje za čitatelje glasi: tko bi, po vašem mišljenju, trebao imati zadnju riječ o tome što vaša umjetna inteligencija smije, a što ne smije raditi – inženjeri, političari ili generali?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.