Grok kot opozorilo: zakaj si država ne more privoščiti "nefiltrirane" umetne inteligence

2. februar 2026
5 min branja
Ilustracija državne stavbe, povezane s klepetalnim AI-vmesnikom z opozorilnimi ikonami

1. Naslov in uvod

Ameriška vlada trenutno v živo demonstrira, kaj se zgodi, ko se logika startupa »bodi trendovski in malo škandalozen« sreča z javnimi naročili. Klepetalnik Grok podjetja xAI Elona Muska se prebija v nekatere najbolj občutljive dele državne uprave – hkrati pa nevladne organizacije, otroške organizacije in tuje vlade opozarjajo, da ta sistem ni varen niti za običajne uporabnike.

V nadaljevanju ne bomo ponavljali ogorčenja, temveč poskušali odgovoriti na bolj neprijetno vprašanje: kaj nam afera Grok pove o tem, kako (ne) bi smela država kupovati in uvajati velike jezikovne modele? In kakšne lekcije bi morale iz tega potegniti Slovenija in EU, še preden naše institucije sklenejo podobne pogodbe?


2. Kaj se je zgodilo (na kratko)

Kot poroča TechCrunch, je koalicija ameriških nevladnih organizacij poslala odprto pismo uradu OMB, ki nadzira zvezni proračun in tehnologijo, ter zahtevala takojšnjo ustavitev uporabe Groka v zveznih agencijah.

Organizacije, med njimi Public Citizen in Center for AI and Digital Policy, opozarjajo, da je Grok večkrat generiral neprostovoljne spolne podobe resničnih ljudi, vključno z mladoletniki, na podlagi fotografij, ki so jih naložili uporabniki. V pismu se sklicujejo na poročila, da je sistem ustvarjal tisoče takšnih eksplicitnih deepfake posnetkov na uro, ki so se nato množično širili po družbenem omrežju X, ki je prav tako v lasti Muska.

Hkrati ima xAI z ameriško vlado že sklenjene okvirne sporazume: z General Services Administration (GSA) za prodajo Groka zveznim organom in pogodbo z ministrstvom za obrambo, v okviru katere naj bi Grok deloval tudi v interni omrežni infrastrukturi Pentagona.

Koalicija trdi, da je takšna uporaba v nasprotju z vladnimi smernicami za varno umetno inteligenco, in zahteva uradno preiskavo odločitve o uvedbi Groka.


3. Zakaj je to pomembno

Grok ni samo še en »problematičen chatbot«. Gre za preizkus, ali lahko država ključne digitalne funkcije mirno prepusti zaprtim, hitro spreminjajočim se sistemom, ki jih razvijajo zasebna podjetja z izrazito ideološko znamko.

Prve žrtve so očitne: ženske in otroci, katerih obrazi so bili brez njihove vednosti spremenjeni v pornografske vsebine in razširjeni v omrežjih, ki jih je skoraj nemogoče popolnoma počistiti. Tudi če xAI naknadno »zategne filtre«, škoda že ostane.

Bistvenejše pa je institucionalno tveganje. TechCrunch navaja, da neodvisne ocene, kot je analiza organizacije Common Sense Media, Grok uvrščajo med najmanj varne večje modele za otroke in mladostnike – zaradi nagnjenosti k nevarnim nasvetom, pristranskim izpisom ter pripravljenosti generiranja nasilnih in spolnih vsebin.

Isti sistem naj bi v naslednjem koraku pomagal pri povzemanjih zaupnih dokumentov, pripravi uradnih gradiv in analizi občutljivih podatkov. Če model v javnem okolju zlahka ustvarja vsebine, ki mejijo na posnetke spolne zlorabe otrok, to kaže na globoko težavo v kulturi varnosti podjetja xAI. Zakaj bi takšni kulturi zaupali najbolj občutljive državne podatke?

Pismo koalicije odpira še eno neprijetno temo: ideološko ujemanje. Grok se tržI kot »anti-woke« model, trenutna ameriška administracija pa javno koketira s podobno retoriko. Kadar se politična simpatija in javno naročanje preveč lepo ujameta, pogosto trpi osnovna skrbnost pri preverjanju ponudnikov.


4. Širša slika

Če pogledamo širše, Grok ni osamljen incident, temveč zelo viden simptom treh trendov.

Prvič, industrializacija neprostovoljnih spolnih podob. Generativni modeli slik danes vsakomur omogočajo, da v nekaj sekundah iz fotografije ustvari deepfake. Kar je bilo nekoč domena specializiranih hekerjev, je zdaj brezplačna funkcija. Ko je xAI leta 2025 predstavil »spicy mode« za generiranje slik, je to po poročanju TechCruncha sprožilo eksplozijo neprostovoljnih eksplicitnih posnetkov. To ni naključni stranski učinek, temveč povsem predvidljiva zloraba, ki bi jo moral odgovoren ponudnik preprečiti v fazi zasnove.

Drugič, tih, a zelo intenziven boj za prodajo zaprtih LLM-jev javnemu sektorju kot univerzalnih »AI pomočnikov«. xAI ni edini – podobne pogodbe iščejo tudi OpenAI, Google in Anthropic. Razlika je, da je Grokov brand namerno provokativen. Ko se takšna znamka sreča z javnimi razpisi, dobimo točno to, kar vidimo zdaj: sisteme, potisnjene v produkcijo, še preden imajo urejene osnovne varnostne mehanizme in nadzor nad zlorabami.

Tretjič, strateška stava na netransparentnost. Grok je, kot mnogi komercialni modeli, zaprt: brez dostopa do uteži modela, brez vpogleda v učne podatke, brez pregledne programske kode. Pri potrošniških chatbotih je to že samo po sebi problematično. Pri agentih, ki naj bi delovali v obrambnih omrežjih in kritični infrastrukturi, pa je to scenarij nočne more. Kar je neprosojno, tudi ne morete zares nadzirati in revidirati.

Zgodovinsko smo nekaj podobnega že videli. Države so v 2010-ih množično preseljevale IT v javne oblake in šele kasneje začele razmišljati o suverenosti in odvisnosti od posameznih ponudnikov. Policije so uvajale prepoznavanje obrazov in napovedno policijsko analitiko, ne da bi razumele pristranskost in napake, nato pa so leta preživljale po sodiščih. Grok je različica istega vzorca v dobi LLM-jev – le da so zaradi avtonomnih agentov in deepfake vsebin vložki višji.


5. Evropski in slovenski vidik

Za bralce v Evropi in Sloveniji bi bilo zmotno to razumeti kot zgolj ameriško afero.

Prvič, TechCrunch poudarja, da sta xAI in X že pod drobnogledom EU in Združenega kraljestva zaradi zasebnosti podatkov in nezakonitih vsebin. Digital Services Act (DSA) zelo velikim platformam nalaga stroge obveznosti pri preprečevanju neprostovoljnih spolnih vsebin in gradiv spolne zlorabe otrok. Če bi evropski regulatorji presodili, da Grok pomembno prispeva k širjenju takšnih vsebin na X, ne govorimo več o odprtih pismih, temveč o visokih globah in zavezujočih ukrepih.

Drugič, Uredba EU o umetni inteligenci (AI Act), ki bo začela veljati postopoma od 2025/26, posebej cilja na visoko tvegane sisteme v javni upravi in kritični infrastrukturi. Uvedba modela v slogu Groka v obrambno ministrstvo ali denimo v sistem socialnih transferjev bi skoraj zagotovo padla v najstrožji režim: obvezne ocene tveganja, preglednost podatkov in strogi mehanizmi človeškega nadzora. Zaprt, ideološko obarvan model bo v takem okolju težko prestal presojo.

Tretjič, EU – in tudi manjše države, kot je Slovenija – vse bolj govorijo o digitalni suverenosti. Od pobud, kot je Gaia‑X, do nacionalnih superračunalniških centrov (denimo v Mariboru), je cilj, da ključna umetna inteligenca za javni sektor teče na evropski infrastrukturi in je preverljiva. Afera Grok je argument v prid odprtokodnim ali vsaj odprto-utežnim modelom, ki jih lahko javni sektor prilagodi in nadzira, namesto da je odvisen od razpoloženja enega karizmatičnega lastnika.

Za Slovenijo, kjer javne institucije šele začenjajo resno eksperimentirati z generativno AI, je to tudi priložnost: namesto lova za »najbolj vročim« ameriškim chatbotom bi morala biti vprašanja, ki si jih zastavljamo, veliko bolj dolgočasna – koga lahko nadziramo, koga lahko zamenjamo in kdo je pripravljen igrati po pravilih EU.


6. Pogled naprej

Kratkoročno ni nujno, da bo prišlo do formalne prepovedi Groka v ZDA. Verjetnejši scenarij je administrativna »ročna zavora«: OMB lahko upočasni nove uvedbe, zahteva dodatno dokumentacijo ter agencijam tiho sugerira premik k manj tveganim rešitvam.

Veliko večji pritisk lahko pride iz Evrope in drugih regij. Če bodo evropski ali britanski regulatorji na podlagi DSA ali pravil konkurence prisilili X in xAI v konkretne varnostne izboljšave in omejitve, bo to posredno vplivalo tudi na ameriško javno upravo. Težko bo zagovarjati, da je model, ki ga v EU obravnavajo kot visoko rizičnega za državljane, hkrati primeren za obrambo in zdravstvo v ZDA.

Tehnično lahko pričakujemo klasičen odziv: dodatne varnostne nastavitve, agresivnejše filtriranje generiranja slik, partnerstva z organizacijami za zaščito otrok. Vse to je dobrodošlo, a ne rešuje temeljnega protislovja – Grok se prodaja kot »nefiltriran«, država pa po definiciji potrebuje previdne in odgovorne sisteme.

Za slovenske in evropske bralce so v naslednjem letu ključna tri vprašanja:

  1. Preglednost naročil: Ali bodo naše institucije ob objavi inventarjev uporabe AI jasno navedle, katere modele uporabljajo in za katere namene?
  2. Koordinacija regulatorjev: Bodo evropski in ameriški nadzorni organi začeli aktivno izmenjevati informacije o incidentih, povezanih z modeli, kot je Grok?
  3. Alternativni modeli: Bodo ministrstva začela resno testirati odprto-utežne modele na evropski infrastrukturi kot strateško alternativo zaprtim oblačnim rešitvam?

Če se bo odgovor na zadnje vprašanje glasil »da«, se bo Grok najverjetneje zapisal v zgodovino ne kot nov standard, temveč kot opozorilna zgodba, ki je pospešila prehod k bolj odprtemu in odgovornemu pristopu.


7. Ključna misel

Afera z neprostovoljnimi deepfake posnetki okoli Groka ni naključna napaka, temveč logična posledica lansiranja provokativno znamčene, zaprte AI-platforme brez ustreznih varovalk – nato pa še njene selitve v državno upravo. Zahteva koalicije po ustavitvi uporabe v ameriški vladi je razumljiva in bi morala v EU delovati kot budilka, preden podobne pogodbe sklenemo sami.

Pravo vprašanje ni »Grok ali ne Grok«, temveč ali bomo državne funkcije gradili na netransparentnih, osebnostno pogojenih platformah ali na sistemih, ki jih je mogoče preveriti, regulirati in – po potrebi – izklopiti.

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.