Ko se AI vmeša v volitve: zakaj je Anthropicov politični manever prelomnica
Ameriške volitve so dobile novega igralca: vrhunske AI laboratorije, ki ne financirajo le politike, temveč se zdaj z milijoni dolarjev spopadajo med seboj. Za vse, ki vas skrbi, kdo bo pisal pravila za umetno inteligenco, je to trenutek treznitve.
Kot poroča TechCrunch, je Anthropic postal glavni financer političnega odbora, ki v eni sami newyorški kongresni tekmi izziva konkurenčni AI super PAC. Za oglaševalskimi sporočili in imeni odborov se skriva veliko večja zgodba: boj za to, ali bo »pro‑AI« pomenil deregulacijo ali pa stroge standarde varnosti in nadzora.
To ni zgolj ameriška epizoda. Gre za napoved, kako bo moč AI poskušala vplivati na demokracijo tudi drugod – vključno z Evropo in Sloveniji.
Novica na kratko
Po poročanju TechCruncha je član newyorške skupščine Alex Bores, ki kandidira za kongresni okraj NY‑12, postal testni primer vpliva AI denarja na politiko.
Super PAC Leading the Future, opisan kot »pro‑AI« in po navedbah TechCruncha oborožen z več kot 100 milijoni dolarjev, ki prihajajo med drugim od Andreessena Horowitza, predsednika OpenAI Grega Brockmana, iskalnega startupa Perplexity in soustanovitelja Palantirja Joa Lonsdala, je porabil približno 1,1 milijona dolarjev za oglase proti Boresu. Glavni očitek: Bores je avtor zakona RAISE Act v New Yorku, ki večje razvijalce AI zavezuje k razkritju varnostnih protokolov in poročanju o resnih zlorabah njihovih sistemov.
Zdaj se je v igro vključil še konkurenčni odbor. Public First Action, ki ga po podatkih Bloomberga (navedeno v članku TechCruncha) podpira 20 milijonov dolarjev donacije Anthropica, namenja 450.000 dolarjev za podporo Boresu. Tudi ta odbor je izrazito »pro‑AI«, vendar v ospredje postavlja preglednost, varnostne standarde in javni nadzor.
Zakaj je to pomembno
Ta kampanja v resnici ni bitka za en poslanski sedež, temveč za to, kdo bo definiral, kaj pomeni biti »pro‑AI«.
Leading the Future predstavlja klasični silicijevdolski maksimalizem: AI kot motor rasti in geopolitične moči, regulacija pa naj bo minimalna in podjetjem prijazna. Bores ni tarča zato, ker bi bil proti tehnologiji, temveč zato, ker je podprl RAISE Act – razmeroma zadržan, zvezno omejen okvir za varnost in poročanje. Za ta tabor je to nevaren precedens: če lahko en poslanec zahteva vpogled v »črne škatle« AI, bodo to zahtevali tudi drugi.
Anthropicov vstop na prizorišče z odborom Public First Action pa pomeni drugo pripoved: da je mogoče biti »pro‑AI« in hkrati zagovarjati stroge varnostne režime, razkritja in javni nadzor. Anthropic že dlje gradi ugled laboratorija, ki resno jemlje eksistenčna tveganja. Z donacijo v višini 20 milijonov dolarjev za politični odbor, ki brani kandidata z regulacijskimi ambicijami, pa prehaja iz tihega lobiranja v neposredno izbiranje zmagovalcev in poražencev na volitvah.
Kdo pridobi?
- Veliki laboratoriji z varnostnim profilom dobijo politični vpliv in moralno pozicijo.
- Investitorji rasti za vsako ceno imajo orodje, s katerim lahko kaznujejo politike, ki razmišljajo o resnejši regulaciji.
Kdo izgubi?
- Manjši AI startupi, tudi slovenski in evropski, ki si ne morejo privoščiti lastnih PAC‑ov in bodo stisnjeni med dve agresivno financirani viziji, nad katerima nimajo nadzora.
- Javne institucije, ki bodo zakonodajo oblikovale pod senco izjemno dobro financiranih interesov.
Neposredna posledica: vsak poslanec, ki razmišlja o trših pravilih za AI, bo to tekmo analiziral zelo pozorno. Sporočilo obeh taborov je jasno: če boste urejali AI, bodo milijoni dolarjev porabljeni bodisi za vašo politično »likvidacijo« bodisi za vašo obrambo.
Širši kontekst
S tem scenarijem se že poznamo – le da je bil doslej v drugih panogah.
Ko sta Uber in Lyft izpodbijala mestne prometne predpise, ko so telekomi rušili nevtralnost interneta ali ko je kripto industrija prek skladov, kot je Fairshake, vlagala desetine milijonov v ameriške volitve, je bil vzorec enak: nova tehnologija želi čim prej zakleniti sebi naklonjena pravila.
Pri AI je drugače, ker sta moč in tveganje bistveno bolj skoncentrirana. Peščica laboratorijev že danes nadzoruje modele, ki vplivajo na informacijske tokove, trg dela in – posredno – nacionalno varnost. Zdaj se učijo nadzorovati tudi politične narative, eno kongresno predvolilno kampanjo naenkrat.
Ta primer se lepo vklaplja v več širših trendov:
- Regulacija prihaja. V ZDA obstaja predsedniška izvršna uredba o AI, Združeno kraljestvo je organiziralo AI Safety Summit, EU pa je sprejela Akt o umetni inteligenci. Divji zahod AI se bliža koncu in industrijski akterji to dobro vedo.
- Kapital se razporeja po ideoloških linijah. Anthropic gradi identiteto »varnostnega« laboratorija, ki resno jemlje dolgoročna tveganja; mnogi podporniki Leading the Future pa so izraziti techno‑optimisti, ki opozorila pred AI vidijo kot pretirana ali celo škodljiva.
- Lobiranje se seli z zakulisja na volilno bojišče. Namesto da bi zgolj vplivali na formulacije členov v Bruslju ali Washingtonu, podjetja zdaj skušajo preprečiti, da bi sploh bili izvoljeni politiki z »neprijetnimi« stališči.
V primerjavi z Evropo so ZDA za takšne eksperimente idealno okolje: super PAC‑i lahko zbirajo in porabljajo praktično neomejena sredstva, če formalno ne sodelujejo neposredno s kampanjami. Za AI laboratorije je to relativno nizko‑trenjsko orodje političnega vpliva.
Spopad med denarjem, ki je bolj poravnan z Anthropicom, in denarjem, ki je blizu a16z/OpenAI taboru, nakazuje, da ne bo enotnega »AI lobija«. Pričakujemo rastoč ekosistem prekrivajočih se blokov – od varnostno‑usmerjenih, rastno‑usmerjenih, odprtokodnih do nacionalno‑varnostnih – ki bodo vsak po svoje želeli vtisniti svojo vizijo v zakonodajo.
Evropski in slovenski vidik
Iz evropske in slovenske perspektive je to obenem opozorilo in priložnost.
Opozorilo: Evropa ne more prepustiti upravljanja AI ameriški volilni areni. Laboratoriji, ki stojijo za tem spopadom – Anthropic, akterji okoli OpenAI, Palantirjev krog – gradijo modele, ki jih uporabljajo tudi slovenska podjetja, javna uprava in znanost. Če bodo ameriški politiki zaradi strahu pred dragimi kampanjami popustili pri regulaciji, bo globalni standard zdrsnil proti najnižjemu skupnemu imenovalcu.
Po drugi strani je EU z Aktom o umetni inteligenci, DSA in DMA jasno sporočila, da je pripravljena najmočnejšim igralcem naložiti trša pravila: ocene tveganja, obveznosti preglednosti, dodatne obveznosti za »sistemske« platforme. Tudi pravila o financiranju strank in kampanj so v večini držav, vključno s Slovenijo, precej strožja kot v ZDA, zato super PAC scenarij pri nas (vsaj neposredno) ni mogoč.
To pa še ne pomeni, da smo imuni. Namesto super PAC‑ov imamo v Evropi močne panožna združenja, think‑tanke in lobistične pisarne v Bruslju. Ko bo ameriški AI denar zaostril svoje metode, lahko pričakujemo prenos dela tega pristopa v EU – bolj subtilno, skozi strokovne posvete, študije in mreženje.
Za slovenski ekosistem – od ljubljanskih deep‑tech startupov do raziskovalnih inštitutov – je ključno, da ne ostane le pasiven opazovalec. Če bodo v razpravi o implementaciji Akta o AI slišani predvsem glasovi največjih ameriških laboratorijev, bo zakonodaja nehote prilagojena njihovim modelom. Slovenski in širši CEE prostor nujno potrebujeta lastne, artikulirane poglede na to, kakšna pravila spodbujajo inovacije, ne pa odvisnost od tujih velikanov.
Pogled naprej
Ta newyorška tekma verjetno ne bo zadnji ali najpomembnejši primer vmešavanja AI denarja v volitve 2026. Je pa javna beta verzija prihodnje strategije.
Če Leading the Future uspe zrušiti Boresa, bo to za številne zakonodajalce jasen signal: resna regulacija AI ima visoko politično ceno. Če bo uspešnejši tabor, ki ga podpira Anthropic, bomo verjetno videli več kandidatov, ki bodo eksplicitno nastopali z geslom »pro inovacijam, pro varnosti«, podprtih z laboratoriji, ki želijo dokazati, da rast in regulacija lahko sobivata.
V naslednjih 1–2 letih bo vredno spremljati:
- Obseg: bo AI denar ostal omejen na nekaj ključnih predvolilnih bojev ali se bo do leta 2028 razširil na desetine kampanj?
- Transparentnost: bodo ameriški regulatorji ali sama podjetja ponudila jasnejša poročila o tem, kam in koliko AI denarja teče v politiko?
- Odziv javnosti: kdaj se bodo pojavile kampanje tipa »brez AI denarja« kot konkurenčni politični produkt?
- Transatlantski učinek: se bodo podobni trendi – morda v blažji obliki – pojavili v Združenem kraljestvu ali v bolj agresivnem lobiranju pri implementaciji evropskega Akta o AI?
Največje tveganje je regulativni ugrabitev: da ista majhna skupina podjetij, ki gradi najmočnejše modele, prek kombinacije lobiranja, raziskovalnih donacij in zdaj še neposrednega volilnega vpliva, na koncu piše pravila zase. Kontrastno tveganje je populistična reakcija, ki vsako prisotnost AI v politiki razglasi za nelegitimno in s tem zavre tudi koristne inovacije.
Za konec
Anthropicova odločitev, da z večmilijonsko donacijo podpre odbor, ki brani kandidata z regulacijsko agendo pred industrijskim AI super PAC‑om, pomeni novo fazo: AI podjetja niso več zgolj objekti regulacije, temveč postajajo aktivni centri politične moči.
Morda je celo bolje, da imamo več tekmujočih vizij »pro‑AI«, kot pa enoten, monoliten industrijski blok. A bodimo iskreni: prihodnost upravljanja AI se vse bolj odloča prek čekovnih knjižic, ne v odprtih javnih razpravah. Ključno vprašanje za evropske in slovenske odločevalce je, ali bomo dopustili, da pravila za transformativne tehnologije nastajajo v senci teh proračunov, ali pa bomo razvili bolj demokratične, pregledne mehanizme, ki bodo lahko temu vplivu parirali.



