Anthropic, laboratorij koji se godinama predstavlja kao „odgovorni“ igrač u svijetu generativne umjetne inteligencije, sada radi ono što rade svi veliki američki tehnološki igrači: formalno ulazi u politiku kroz vlastiti PAC. Za europske korisnike i posebno za tvrtke iz Hrvatske i regije, to nije samo američka zanimljivost. Radi se o tome tko će pisati pravila za tehnologiju na kojoj će sutra možda ovisiti i vaša banka, bolnica ili startup iz Zagreba.
U nastavku objašnjavam što točno znači novi Anthropicov PAC, kome ide u prilog, gdje su rizici za konkurenciju i zašto bi na njega trebali obraćati pažnju i u Bruxellesu i u Banskim dvorima.
Vijest ukratko
Kako piše TechCrunch, Anthropic je pri američkoj Saveznoj izbornoj komisiji registrirao novi politički akcijski odbor (PAC) pod imenom AnthroPAC. U službenim dokumentima kao odgovorna osoba navodi se blagajnica Anthropica, Allison Rossi.
Prema informacijama Bloomberga, koje prenosi TechCrunch, PAC će se financirati dobrovoljnim prilozima zaposlenika, ograničenima na 5.000 američkih dolara po osobi. AnthroPAC planira tijekom sljedećih „midterm“ izbora davati donacije kandidatima obje velike stranke, i sadašnjim zastupnicima u Kongresu i novim kandidatima.
TechCrunch podsjeća da ovo nije početak, već eskalacija politike u Anthropicu. Washington Post je nedavno izvijestio da su tvrtke iz područja umjetne inteligencije u tekućem izbornom ciklusu ukupno donirale oko 185 milijuna dolara. New York Times je zasebno otkrio da je jedan Super PAC, Public First, primio najmanje 20 milijuna dolara iz Anthropica i tim sredstvima financirao kampanje koje guraju određenu regulativnu agendu.
Sve se to događa paralelno s pravnim sporom između Anthropica i američkog Ministarstva obrane oko toga kako vojska smije koristiti njihove modele umjetne inteligencije i prema kojim pravilima.
Zašto je to važno
AnthroPAC nije samo još jedan tehnološki fond za donacije. On označava trenutak kada „sigurnost umjetne inteligencije“ postaje i politička i poslovna strategija.
Anthropic godinama nastupa kao laboratorij koji upozorava na ozbiljne rizike: od dezinformacija preko zloupotrebe u vojne svrhe do dugoročnih problema kontrole nad modelima. Kad takvo poduzeće otvori PAC, dobivamo dvije strane iste medalje:
Sigurnost dobiva institucionalni glas. Umjetna inteligencija u američkom Kongresu dugo je bila tema općih big‑tech lobija. Odbor povezan s ljudima koji zaista istražuju rizike mogao bi pogurati konkretnije mjere – testiranja, nadzor, obvezno prijavljivanje incidenata i sl.
Sigurnost postaje tržišna barijera. Kada se „odgovorna AI“ pretoči u detaljne zakonske zahtjeve, oni koji ih znaju ispregovarati i ispuniti stječu prednost. To su, logično, veliki laboratoriji s pravnim timovima i budžetima. Za manje tvrtke i otvorene projekte isti propisi brzo postanu nesavladivi.
Tko dobiva?
- Anthropic i drugi veliki AI‑laboratoriji, koji dobivaju izravan utjecaj na to kako će izgledati pravila.
- Velike cloud platforme, čija infrastruktura je polazišna točka za mnoge rizičnije primjene i koje compliance mogu pretvoriti u uslugu.
- Političari, koji se mogu predstaviti kao „odgovorni prema umjetnoj inteligenciji“ oslanjajući se na gotove okvire koje im isporuči industrija.
Tko gubi?
- Manji developeri i open‑source zajednice, bez resursa za vlastite lobističke aparate.
- Organizacije civilnog društva, koje sada moraju balansirati utjecaj više velikih igrača istovremeno.
Praktična posljedica: rasprava o rizicima i regulaciji umjetne inteligencije u SAD‑u sve će se više filtrirati kroz tokove novca. A s obzirom na to da i hrvatske tvrtke – od fintech startupa do regionalnih igrača poput Infobipa – sve češće koriste modele i usluge američkih pružatelja, te će se odluke prelijevati i u naš ekosustav.
Šira slika
AnthroPAC se uklapa u širu utrku za politički utjecaj oko umjetne inteligencije.
Velike tehnološke kompanije već godinama imaju PAC‑ove, lobiste i mreže think‑tankova u Washingtonu i Bruxellesu. Eksplozija generativne AI promijenila je temu razgovora: sada se raspravlja o tome smiju li modeli sami pisati kod za kritične sustave, kreirati političke poruke ili pomagati u vojnom planiranju.
Posljednjih godina vidjeli smo:
- „dobrovoljne obveze“ AI‑tvrtki prema Bijeloj kući oko sigurnosnih praksi,
- rast lobiranja za i protiv prvih nacrta američkih zakona o umjetnoj inteligenciji,
- javna saslušanja na kojima izvršni direktori AI‑laboratorija istovremeno upozoravaju na egzistencijalne rizike i predlažu državne projekte temeljene na njihovim modelima.
Anthropicov potez je logičan nastavak: industrija ne čeka da države same odrede crvene linije; želi ih iscrtati zajedno s njima – i po mogućnosti na način koji joj odgovara.
Povijesno gledano, sličan obrazac već smo vidjeli kod telekoma, banaka i društvenih mreža. Prvo dolazi inovacija, potom problemi i skandali, zatim regulacija, a sve to vrijeme oni najveći aktivno utječu na sadržaj tih pravila. Razlika je što generativna AI direktno oblikuje informacijski prostor – pa tako i politički proces koji bi je trebao nadzirati.
Europski i regionalni kut
Gledano iz EU, a osobito iz perspektive male članice poput Hrvatske, AnthroPAC je upozorenje.
Europska unija je s GDPR‑om, Aktom o digitalnim uslugama (DSA), Aktom o digitalnim tržištima (DMA) i Zakonom o umjetnoj inteligenciji (AI Act) zauzela poziciju regulatornog lidera. Bruxelles voli naglašavati da postavlja globalne standarde. Istodobno, američka AI‑industrija gradi vlastitu političku infrastrukturu.
Potencijalne posljedice:
- Regulatorni jaz SAD–EU. Ako SAD, pod snažnim utjecajem industrije, ostane blaže reguliran od EU, europski igrači, uključujući one iz Hrvatske, snosit će veće troškove usklađivanja. Istovremeno će ovisiti o američkim modelima koji su nastali u relativno labavijem okruženju.
- Neizravno lobiranje u EU. Iako PAC‑ovi nisu dio europskog sustava, ista će poduzeća u Bruxellesu i nacionalnim prijestolnicama djelovati preko udruga, konzultanata i financiranja istraživačkih projekata. Tko ne prati pozorno, lako završi s propisima koje je u praksi napisala industrija.
- Pritisak na lokalne i regionalne igrače. Startupi i tvrtke iz Hrvatske i šire regije (Infobip, Rimac, brojni manji AI‑projekti) morat će se natjecati s akterima koji ne samo da imaju superiornu tehnologiju, nego i duboko razumiju kako funkcionira američka i globalna politika.
Za hrvatske timove koji koriste Anthropicove modele putem API‑ja, AnthroPAC ima vrlo konkretan značaj. Ako se kroz američku regulativu, uz pomoć ovakvih PAC‑ova, postrože pravila za npr. vojnu, sigurnosnu ili biometrijsku primjenu, te će se restrikcije automatski odraziti i na mogućnosti korištenja modela u Zagrebu ili Splitu – bez obzira na to što dopušta hrvatski zakon.
Što slijedi
U idućih godinu do dvije vrijedi pratiti nekoliko stvari:
Kome AnthroPAC stvarno daje novac. Javni podaci američke izborne komisije pokazat će koje političare i odbore Anthropic podržava. Jesu li to ljudi koji guraju stvarni nadzor nad rizicima ili prvenstveno zagovornici „inovacije“ s minimalnim ograničenjima?
Preplitanje lobiranja i javne nabave. Spor s Pentagonom naglašava koliko su regulativa i državni ugovori povezani. Tko sudjeluje u pisanju standarda za „sigurnu AI“ u obrani, u povoljnijoj je poziciji kad se bude odlučivalo tko dobiva milijunske poslove.
Efekt kopiranja. Ako se AnthroPAC pokaže učinkovit, vjerojatno će se pojaviti još specijaliziranih AI‑PAC‑ova i jakih industrijskih saveza posvećenih „edukaciji“ zakonodavaca. Time će se težina premjestiti još više prema najvećim igračima.
Mogući otpor. Kako bude rastao utjecaj AI‑novca u američkoj politici, rast će i pritisak za veću transparentnost i ograničavanje tog utjecaja – ne samo od nevladinih organizacija, nego i od dijela političara. Ishod je otvoren, ali rasprava o tome tko zapravo upravlja regulacijom umjetne inteligencije tek počinje.
Za hrvatske tvrtke, istraživače i javni sektor poruka je jasna: politika umjetne inteligencije nije samo posao Bruxellesa ili Washingtona, već i pitanje nacionalne strategije. O tome koje će modele smjeti koristiti vaša banka, vaš startup ili javna uprava, neće odlučivati samo CTO, nego i forumi na kojima danas glavnu riječ vode upravo ovakvi PAC‑ovi.
Zaključak
Anthropicov novi PAC označava novu fazu politizacije vrhunske umjetne inteligencije. Laboratorij koji naglašava sigurnost sada te iste vrijednosti pretvara u lobističku platformu – i potencijalno u konkurentsku prednost.
Hoće li to rezultirati boljim zaštitnim mehanizmima ili prije svega regulativnim zarobljavanjem, ovisit će o transparentnosti rada PAC‑a i o snazi drugih glasova u raspravi – od akademske zajednice do civilnog društva i europskih regulatora.
Ključno pitanje za nas u Europi i u Hrvatskoj glasi: tko bi trebao pisati pravila za sustave umjetne inteligencije na kojima ćemo sutra graditi gospodarstvo i javne usluge – demokratski izabrane institucije ili kompanije koje te sustave razvijaju?



