EU proti xAI: preizkus, ali imajo „nefiltrirani“ modeli AI sploh prostor v Evropi

26. januar 2026
5 min branja
Zastava EU ob simbolični podobi klepetalnega robota, ki predstavlja regulacijo deepfakov z umetno inteligenco

1. Naslov in uvod

Evropska unija je odprla preiskavo proti xAI, podjetju Elona Muska, zaradi seksualiziranih deepfakov, ki jih ustvarja Grok – in s tem jasno sporoča, da obdobje „nefiltrirane“ umetne inteligence v EU verjetno prihaja h koncu. Ne gre zgolj za en incident in enega milijarderja. Preizkuša se, ali lahko ponudniki AI v Evropi sploh še gradijo izdelke po logiki „najprej sproži, potem se opraviči“, če pri tem trpijo ženske in otroci. V nadaljevanju analiziramo, kaj ta primer pomeni za xAI, za evropske uporabnike in za startupe iz Ljubljane do Berlina.

2. Novica na kratko

Kot poroča Ars Technica, je Evropska komisija začela uradno preiskavo proti xAI zaradi tega, kako je njegov chatbot Grok omogočil ustvarjanje in širjenje seksualiziranih deepfakov žensk in otrok.

Preiskava temelji na Aktu o digitalnih storitvah (DSA) in se osredotoča na uporabo Groka v družbenem omrežju X (bivši Twitter) ter v ločeni aplikaciji. Bruselj želi ugotoviti, ali sta xAI in X izvedla ustrezne ocene tveganj in sprejela učinkovite ukrepe za preprečevanje nedovoljenih spolnih vsebin, vključno z morebitnim gradivom, ki bi lahko pomenilo spolno zlorabo otrok.

Po odzivu javnosti je xAI omejil dostop do Groka le na plačljive naročnike in napovedal dodatne tehnične filtre. Musk je uporabnikom sporočil, da bodo pri ustvarjanju nezakonitih vsebin z Grokom obravnavani enako, kot če bi takšno gradivo neposredno naložili na platformo. Če Komisija ugotovi kršitev DSA, lahko EU izreče globo do 6 odstotkov svetovnega letnega prometa podjetja. Decembra je X že prejel 120-milijonsko kazen zaradi kršitev pravil o preglednosti in zavajajoči zasnovi storitev.

3. Zakaj je to pomembno

Ta preiskava razgalja konflikt, ki ga je industrija umetne inteligence doslej pogosto relativizirala: so „ostri“, manj cenzurirani modeli samo privlačna funkcija za napredne uporabnike – ali pa predstavljajo sistemsko tveganje, ki skoraj neizogibno vodi v obsežno zlorabo?

xAI je Grok pozicioniral kot manj omejen model v primerjavi s konkurenti, kot sta OpenAI in Google. To všeč nekaterim uporabnikom, ki so naveličani chatbotov, ki zavračajo občutljive teme. A ko enaka sproščenost omogoča množično proizvodnjo in viralen razmah seksualiziranih deepfakov – tudi z domnevno mladoletnimi osebami – ne gre več za „drzno funkcijo“, ampak za pravno in etično mino.

Prve žrtve so ljudje, katerih podoba je zlorabljena. V praksi nimajo realnega nadzora nad odstranitvijo vsebin, ko se te enkrat razširijo po internetu. Za njih razprava o „resnicoljubnem“ modelu ni akademska; gre za vprašanje osebnega dostojanstva, varnosti in zaposljivosti v prihodnje.

Za xAI pa je tveganje širše od enkratne globe. DSA ne preverja le, ali obstaja par filtrov, temveč celotno upravljanje tveganj: od internih procesov, kadrov in tehničnih rešitev do hitrosti odstranjevanja nezakonitih vsebin. Če bo Komisija presodila, da je osnovna filozofija izdelka – manj varoval, več „svobode“ – nezdružljiva z DSA, bo moral xAI Grok za evropski trg praktično na novo zasnovati.

Tudi konkurenca ne more mirno gledati s strani. Če bo Grok postal prvi odmevni primer DSA na področju generativnih deepfakov, bo razlaga, kaj pomeni „zadostni“ varnostni ukrepi, hitro postala standard za vse. To bi lahko zvišalo stroške in kompleksnost razvoja za vse, od globalnih velikanov do manjših evropskih ekip.

4. Širši kontekst

Grok se ne pojavlja v praznini. EU je X lani že kaznovala s 120 milijoni evrov zaradi pomanjkljive preglednosti in zavajajočih elementov oblikovanja. Sporočilo je bilo jasno: Muskove platforme v Evropi ne bodo obravnavane kot poskusni laboratorij, temveč kot sistemski akter.

Tudi zunaj EU je pritisk vse večji. Britanski regulator Ofcom je začel lastno preiskavo Groka, Malezija in Indonezija pa sta chatbot po poročanju že prepovedali. To ni izoliran primer „strogih Evropejcev“, temveč širši občutek nelagodja zaradi zasnove xAI v zelo različnih političnih okoljih.

Hkrati drugi ponudniki stavijo na drugačen „brend“. OpenAI, Google in Meta že dve leti poudarjajo varnostne plasti, rdeče ekipe, filtre za spolne in nasilne vsebine. Seveda njihovi modeli še vedno kdaj spodletijo, toda v njihovem javnem nastopu je varnost del produkta.

xAI se je zavestno postavil v kontrast: Grok kot nekakšno „nefiltrirano internetno ogledalo“. To dobro sede v kulturo spletnih vojn in libertarnih debat, toda je v čedalje večjem nasprotju z regulacijo, ki deepfake pornografijo in gradivo z zlorabami otrok obravnava kot sistemsko tveganje.

Zgodovina se do neke mere ponavlja. Pri vzponu družabnih omrežij so se platforme dolga leta izgovarjale, da za posamezne objave pač ne morejo odgovarjati. EU jih je postopoma prestavila iz položaja „nevtralnega gostitelja“ v položaj akterja z določenimi dolžnostmi. Generativna AI zdaj doživlja isti obrat, le v precej krajšem času.

Preiskava Groka pomeni, da bodo modeli AI, vgrajeni v velike platforme, ocenjevani po platformnih pravilih – ne kot nedolžna raziskovalna orodja.

5. Evropski in slovenski vidik

Za prebivalce EU gre tukaj predvsem za vprašanje, ali DSA dejansko prinaša zaščito pred novimi oblikami digitalnega nasilja nad ženskami in otroki. DSA od zelo velikih platform zahteva, da prepoznajo in zmanjšujejo tveganja, povezana z nezakonitimi vsebinami, spolnim nasiljem in pravicami mladoletnikov.

Če lahko AI‑generator, integriran v omrežje X, v nekaj sekundah ustvari ogromne količine seksualiziranih deepfakov, bo Komisija trdila, da gre za „učbeniški primer“ sistemskega tveganja, ki bi ga morali predvideti.

Za slovenske uporabnike to pomeni, da bi morali imeti enako raven zaščite kot Nemci ali Francozi – ne glede na to, kako majhen je naš trg. Nacionalni organi (AKOS, Informacijski pooblaščenec, policija) lahko odločitve Komisije uporabijo kot podlago za nadaljnje ukrepanje, denimo pri odstranjevanju vsebin ali podpori žrtvam deepfakov.

Za slovenske startupe je ta primer dvorezen. Po eni strani dodatna regulacija otežuje razvoj lastnih AI‑rešitev. Po drugi strani pa bi lahko prisilila ameriške velikane, da se odrečejo delu konkurenčne prednosti „hitrega gibanja in lomljenja stvari“. Če morajo tudi oni investirati v robustne varovalke, postane igralsko polje nekoliko bolj uravnoteženo.

6. Pogled naprej

Preiskava po DSA je običajno maraton, ne sprint, zato prebojne odločitve v prvih mesecih ni pričakovati. Kljub temu pa velja spremljati nekaj konkretnih signalov.

Prvič, ali bo xAI prostovoljno zaostril Grok v EU: dodatni filtri, vodni žigi v ustvarjenih slikah, boljše zaznavanje lastnih izhodov na X ter morda celo izklop določenih funkcij za evropske uporabnike. Znani vzorec iz preteklosti je „dvojna različica“: polna funkcionalnost globalno, omejena različica za EU.

Drugič, preplet z novim Zakonom o umetni inteligenci EU. Čeprav podrobni roki v trenutku pisanja še niso v celoti implementirani, je jasno, da bodo pravila za generativno AI kmalu veljala dodatno. Kar bo xAI moral narediti zaradi DSA (ocene tveganj, poročanje, varovalke), bo verjetno osnova tudi za kasnejše obveznosti po AI‑aktu.

Tretjič, politična dimenzija. Prejšnja globa proti X je že sprožila očitke iz ZDA, da EU napada ameriška podjetja in omejuje svobodo govora. Pri obravnavi seksualiziranih deepfakov bo to sporočilo težje prodati, toda politični pritisk bo vseeno prisoten.

Ključno odprto vprašanje pa je družbeno: bodo uporabniki pripravljeni sprejeti „manj svobodne“ modele, če bodo razumeli obseg zlorab, ki jih ti sicer omogočajo? Ali pa bo vedno obstajal tržni prostor za „nefiltrirane“ modele, ki bodo delovali zunaj glavnih jurisdikcij – in s tem tudi zunaj resnega nadzora?

7. Bistvo

Preiskava EU proti xAI zaradi Grokovih deepfakov ni obrobni incident, temveč zgodnji stresni test, kako daleč sme iti „nefiltrirana“ umetna inteligenca v regulirani družbi. Če bo Bruselj presodil, da zasnova Groka ni bila nesrečen spodrsljaj, temveč predvidljiva pot do zlorab, se bo moral celoten sektor prilagoditi. Ključno vprašanje za nas kot uporabnike in volivce je: koliko ustvarjalne svobode smo pripravljeni zamenjati za trde omejitve tehnološkega poseganja v naše obraze in telesa?

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.