Anthropic, laboratorij, ki se je dolgo predstavljal kot najbolj previden igralec v svetu generativne umetne inteligence, zdaj dela tisto, kar prej ali slej storijo vsi veliki ameriški tehnološki igralci: vstopa v organizirano politiko. Za evropske uporabnike in slovenska podjetja to ni oddaljena ameriška kurioziteta, ampak signal, da se bo o pravilih za umetno inteligenco vse pogosteje odločalo prek političnih prispevkov in lobiranja.
V nadaljevanju pojasnjujem, kaj Anthropicov novi politični odbor dejansko pomeni, kdo bo imel od tega koristi, kje so tveganja za konkurenco – in zakaj bi morala na to pozorno gledati tudi Ljubljana, ne le Washington.
Kaj se je zgodilo – na kratko
Kot poroča TechCrunch, je Anthropic pri ameriški Zvezni volilni komisiji registriral nov politični akcijski odbor (PAC) z imenom AnthroPAC. V dokumentih je kot podpisnica navedena Anthropicova blagajničarka Allison Rossi.
Po navedbah Bloomberga, ki jih povzema TechCrunch, bo PAC financiran z prostovoljnimi prispevki zaposlenih, omejenimi na 5.000 ameriških dolarjev na posameznika. AnthroPAC namerava med prihajajočimi vmesnimi volitvami podpirati kandidate obeh glavnih strank, tako sedanje kongresnike kot nove obraze.
TechCrunch dodaja, da to ni prva politična poteza podjetja. Washington Post je nedavno poročal, da so podjetja z območja umetne inteligence v tekočem volilnem ciklu skupaj že prispevala okoli 185 milijonov dolarjev. New York Times pa je razkril, da je t. i. Super PAC Public First prejel vsaj 20 milijonov dolarjev sredstev iz Anthropica in z njimi financiral oglaševalske kampanje za specifično regulativno agendo.
Vse to se dogaja vzporedno z Anthropicovim sodnim sporom z ameriškim obrambnim ministrstvom glede uporabe in regulacije njihovih modelov umetne inteligence v vojaškem okolju.
Zakaj je to pomembno
To ni »še en tehnološki PAC«. Gre za formalizacijo AI-varnosti kot politične agende.
Anthropic je svojo podobo zgradil na poudarjanju varnosti, eksistenčnih tveganj in »ustavne« umetne inteligence. Ko takšno podjetje vzpostavi politični stroj, se zgodita dve stvari:
Varnost dobi mesto za mizo. Do zdaj je večino razprav o regulaciji umetne inteligence v ZDA vodil klasičen »big tech« lobi. Organiziran odbor, za katerim stojijo raziskovalci, ki dejansko opozarjajo na nevarnosti zlorab, lahko politični razpravi doda resnejše standarde preverjanja, poročanja o incidentih in javnih naročil.
Varnost postane konkurenčna prednost. Ko je »odgovorna umetna inteligenca« enkrat zapisana v zakon, je ključno vprašanje: kdo določa, kaj šteje za odgovorno? Dobro financirani laboratoriji, kot je Anthropic, lahko pomagajo oblikovati definicije, standarde in certifikacijske postopke, ki jih sami zlahka izpolnjujejo – manjši ali odprtokodni igralci pa precej težje. To je klasično tveganje regulativnega ujetja.
Kdo ima korist?
- Anthropic in drugi veliki laboratoriji, ki pridobijo večji vpliv na vsebino in časovnico pravil.
- Veliki ponudniki oblaka, saj zahtevni režimi skladnosti običajno nagrajujejo obseg in kapital.
- Politiki, ki se lahko pokažejo kot “odgovorni do umetne inteligence”, pri čemer se opirajo na industrijsko pripravljene argumente.
Kdo izgublja?
- Manjši AI-startupi in odprtokodna skupnost, ki težko konkurirajo obsežnim lobističnim aparatom.
- Nevladne organizacije in civilna družba, ki se zdaj soočajo z več velikimi in bogatimi sogovorniki hkrati.
Neposredna posledica je jasna: razprava o tveganjih umetne inteligence v ZDA bo vse bolj posredovana skozi denarne tokove. Ker ameriške platforme in modeli poganjajo tudi številne storitve v Evropi in Sloveniji, bodo posledice teh odločitev občutili tudi naši uporabniki in podjetja.
Širša slika
AnthroPAC je del širše oboroževalne tekme v vplivu na regulacijo umetne inteligence.
Veliki tehnološki igralci že desetletja uporabljajo politične odbore in lobiste za oblikovanje zakonodaje – od zasebnosti podatkov do konkurenčnega prava. Agresiven razvoj generativne umetne inteligence je to logiko le pospešil. V zadnjih letih smo videli:
- odmevna »prostovoljna zavezništva« med velikimi AI-podjetji in Belo hišo,
- intenzivno lobiranje okoli prvih ameriških zakonodajnih pobud na področju umetne inteligence,
- javna zaslišanja, na katerih vodilni iz AI-podjetij v enem trenutku opozarjajo na eksistenčna tveganja, v naslednjem pa lobirajo za nove komercialne priložnosti.
Anthropicova poteza se lepo vklaplja v ta vzorec: industrija ne čaka, da bodo vlade same definirale rdeče črte, ampak želi te črte sama narisati.
Zgodovina se ponavlja. Telekomunikacije, finančni sektor in družbena omrežja so že šla skozi fazo, v kateri je regulacijo v veliki meri sooblikoval močan lobi. Vsakič se je kompleksna tehnična tematika poenostavila v jasne politične narative – pogosto napisane v PR-oddelkih podjetij. Z umetno inteligenco je podobno, le da so tokrat vložki večji: sistemi, ki lahko masovno generirajo prepričljivo besedilo, kodo in slike, so neposredno povezani z integriteto informacijskega prostora in demokratičnih procesov.
Ključna lekcija: upravljanje umetne inteligence ni več predvsem tehnični, ampak politično‑močnostni problem. Odločanje o tem, kaj je »sprejemljivo tveganje«, se seli v prostor, kjer pomembno vlogo igrajo finančni prispevki in politične koalicije.
Evropski in slovenski kot
Iz evropske perspektive je ta razvoj jasen opomin.
EU se s pravnim aktom o umetni inteligenci (AI Act), skupaj z GDPR, DSA in DMA, pozicionira kot globalni normodajalec. Bruselj rad poudarja, da »najprej nastanejo pravila v EU, nato pa jih svet sledi«.
Anthropicov PAC pa kaže, da bo imel Washington svoj, močno zlobiran režim umetne inteligence, ki bo posredno vplival tudi na Evropo:
- Ameriški zakonodajalci lahko sprejmejo bolj industriji prilagojene standarde, ki bodo prek izvoza ameriških storitev postali de facto svetovni minimum.
- Isti igralci bodo v Bruslju in državnih prestolnicah – tudi v Ljubljani – delovali prek svetovalnih družb, združenj in think-tankov, ne prek PAC-ov, a z enakim ciljem.
- Evropski akterji, kot so nemški Aleph Alpha, francoski Mistral AI in številni manjši, bodo soočeni z višjimi stroški skladnosti kot njihova ameriška konkurenca, ki doma aktivno sooblikuje pravila.
Za slovenska podjetja, ki uporabljajo Anthropicove modele prek API-jev, ima AnthroPAC zelo praktičen pomen. Če bodo ameriška pravila – tudi zaradi Anthropicovega lobiranja – zaostrena na področju dvojne rabe, vojaških ali kritičnih aplikacij, se bo to neposredno poznalo v tem, kaj lahko slovenski razvijalci počnejo z istimi modeli.
Slovenija se hkrati loteva lastnih strategij, od Strategije digitalne Slovenije do razprav o regulaciji umetne inteligence. Pri tem bo pomembno, da se regulatorji in politika ne zadovoljijo z industrijskimi »whitepaperji«, ampak gradijo lastno strokovno znanje – tudi zato, da ne bi le pasivno prevzemali pravil, nastalih v ozadju ameriških volilnih kampanj.
Pogled naprej
V naslednjih dveh letih velja spremljati več stvari.
Kam bo šel denar. Javno dostopni podatki Zvezne volilne komisije bodo pokazali, katere kandidate in odbore bo AnthroPAC podpiral. Bodo to predvsem politiki, ki zagovarjajo strožje varnostne standarde, ali tisti, ki govorijo o »spodbujanju inovacij« in nasprotujejo tršim pravilom?
Preplet lobiranja in sodnih sporov. Anthropicov konflikt z ameriškim obrambnim ministrstvom bo verjetno potekal vzporedno z oblikovanjem pravil o uporabi umetne inteligence v obrambi in javnem sektorju. Težko si je predstavljati, da bo politika tu popolnoma ločena od sodne dvorane.
Učinek domin. Če bo AnthroPAC uspešen, lahko pričakujemo še več specializiranih AI‑PAC‑ov in močnejša panožna združenja za umetno inteligenco. Posledično se bo težišče regulacije še bolj premaknilo k velikim igralcem.
Možen odpor. Z rastjo političnega vpliva AI‑podjetij se bodo okrepili tudi pozivi k omejevanju njihovega vpliva – podobno kot pri fosilni industriji ali farmaciji. Rezultat ni zagotovljen, toda razprava o tem, koliko moči sme imeti industrija pri oblikovanju pravil za lastno tehnologijo, bo postajala glasnejša.
Za slovenska podjetja, raziskovalce in javne institucije je ključno sporočilo preprosto: politika umetne inteligence je strateška odvisnost, ne tehnična podrobnost. Na voljo, ceno in dopustno rabo zmogljivih modelov bodo v veliki meri določali politični procesi, ki se danes šele začenjajo.
Zaključek
Anthropicov novi PAC je mejnik v politizaciji čelne umetne inteligence. Laboratorij, ki poudarja varnost, svoje vrednote pretvarja v lobistično strategijo – in s tem tudi v konkurenčno prednost. Ali bo to prineslo boljše varovalke ali predvsem regulativno ujetje, bo odvisno od preglednosti delovanja PAC‑a in od tega, ali bodo v razpravi prisotne tudi druge, neindustrijske glasove.
Ključno vprašanje za bralce pa je: kdo naj piše pravila za sisteme umetne inteligence, od katerih bomo odvisni – izvoljene institucije ali podjetja, ki te sisteme gradijo?



