Tožba zaradi CSAM proti xAI: groba streznitev za razvijalce generativne umetne inteligence

17. marec 2026
5 min branja
Poster z obrazom Elona Muska in pozivom k izbrisu računa zaradi afere Grok CSAM

Uvod

Če je vaš otrok kdaj objavil razredno fotografijo na Instagramu, je tožba proti xAI vaša najhujša nočna mora. V ZDA je vložena skupinska tožba, v kateri tri dekleta iz zvezne države Tennessee trdijo, da je generativni model Grok iz njihovih povsem običajnih fotografij ustvaril izjemno realističen prikaz spolne zlorabe otrok (CSAM). Po njihovem prepričanju je prizadetih vsaj na tisoče mladoletnikov.

To ni le še ena epizoda v sagi Elona Muska. Gre za preizkus, ali je industrija generativne umetne inteligence pripravljena prevzeti odgovornost za orodja, ki lahko v nekaj sekundah proizvedejo material, ki je v številnih pravnih redih popolnoma nedvoumen kazenski delikt.


Novica na kratko

Kot poroča Ars Technica, so tri mladoletnice (ena je zdaj polnoletna) in njihovi skrbniki v ZDA vložili predlog za skupinsko tožbo proti Elonu Musku in podjetju xAI. V tožbi trdijo, da je bil model Grok uporabljen za ustvarjanje eksplicitnih slik in videov, ki temeljijo na njihovih resničnih fotografijah iz šole in družinskega življenja. S tem naj bi jih Grok spremenil v žrtve AI‑ustvarjenega CSAM.

Zgodba se je po navedbah tožbe začela decembra, ko je ena od deklet na Instagramu prejela anonimno sporočilo uporabnika Discorda, da njene eksplicitne AI slike krožijo v mapi skupaj s posnetki vsaj 18 drugih mladoletnic. Policijska preiskava naj bi nato identificirala storilca, ki je imel dostop do njenega računa in je uporabljal aplikacijo tretje strani, povezan z Grokom prek licenciranega dostopa.

Tožniki trdijo, da xAI takšnim posrednikom prodaja dostop do Groka in da se generirani material hrani na strežnikih xAI, kar pomeni, da podjetje CSAM tudi "poseduje" in ga "distribuira". Zahtevajo sodno odredbo za ustavitev škodljivih izhodov in odškodnino za vse prizadete mladoletnike. xAI pri omenjenih poročilih CSAM v preteklosti ni priznal; na novo tožbo se še ni javno odzval.


Zakaj je to pomembno

Ta primer razgali tri iluzije, ki jih industrija umetne inteligence rada neguje.

Prvič, ne gre za hipotetično škodo. Ne govorimo o popolnoma izmišljenih likih, temveč o resničnih otrocih, katerih stare fotografije iz šole in doma so bile preoblikovane v pornografski material. Njihova resnična imena in ime šole naj bi bila povezana z datotekami. Psihološki učinek je podoben kot pri fizični zlorabi, pravne posledice pa so celo še jasnejše.

Drugič, poslovni model je del problema. Po navedbah tožbe xAI Groka ni ponujal le znotraj omrežja X v »spicy« načinu, temveč je prodajal dostop tudi prek aplikacij tretjih strani in pri tem uporabljal lastne strežnike za obdelavo in dostavo vsebin. Takšna zasnova – monetiziran dostop, omejen vpogled v uporabo in visoko tvegan izhod – je natančno tisto, na kar opozarjajo regulatorji. Če se trditve izkažejo za resnične, xAI ni bil le ponudnik nevarnega orodja, temveč tudi del distribucijske verige.

Tretjič, odpre se vprašanje pravne odgovornosti. Klasične spletne platforme v ZDA pogosto ščiti zakonodaja, ki omejuje njihovo odgovornost za vsebine uporabnikov. Generativna umetna inteligenca je v sivem območju: ko model sam ustvari sliko na podlagi poziva, je ponudnik bližje založniku kot pasivnemu gostitelju. Pri otroški pornografiji pa so številni pravni sistemi nepopustljivi – že samo posedovanje ali posredovanje CSAM je kaznivo.

Če bo sodišče presodilo, da lahko ponudnik modela velja za "imetnika" CSAM, ker se datoteke vsaj začasno nahajajo na njegovih strežnikih, bo to prelomni trenutek za celoten ekosistem AI. Vprašanje ne bo več, ali si podjetja "želijo" strožjih filtrov, temveč ali si sploh lahko privoščijo, da jih nimajo.


Širši kontekst

Primer Grok se umešča v širši val zlorab generativnih modelov za spolno eksplicitne vsebine.

V zadnjih letih smo že videli primere deepfake pornografije, kjer so obraze znanih oseb ali novinark prilepili na tuja telesa. Novo je to, da lahko model izrealnih fotografij mladoletnic – prijetnih, povsem običajnih – v nekaj sekundah ustvari skrajno nazorne prizore, ki so za oko komaj ločljivi od resničnih.

Raziskovalci, na katere se sklicuje Ars Technica, so že prej ocenili, da je Grok ustvaril milijone seksualiziranih podob, med njimi več deset tisoč takih, ki so videti kot podobe otrok. V ločeni analizi iz samostojne aplikacije Grok Imagine je bilo približno deset odstotkov pregledanih rezultatov videti kot CSAM. Namesto da bi varnostne filtre radikalno zaostril, je xAI dostop omejil na plačljive uporabnike – ukrep, ki predvsem zmanjša javni škandal na omrežju X, ne pa tudi zmožnosti modela.

Drugi igralci so previdnejši. OpenAI, Google, pa tudi ponudniki odprtokodnih modelov so bili sicer prav tako prisiljeni popravljati varnostne napake, vendar je splošen trend jasen: več filtrov, zaznavanje golote, jasnejši kanali za prijavo zlorab. Razlika je, da ima Musk kot skoraj absolutni lastnik bistveno več prostora za tveganje kot klasična javna delniška družba.

Digitalna industrija redko vnaprej poskrbi za varnost – običajno ukrepa po prvih škandalih: družbena omrežja po letu 2016, kripto po velikih prevarah, platformna ekonomija po prvih incidentih. Generativna umetna inteligenca je zdaj v tej fazi. Ta tožba je vprašanje, ali bomo ponovili star vzorec in sprejemali odgovornost šele po škodi – ali pa bomo prvič pravočasno potegnili črto.


Evropski in slovenski zorni kot

Za evropske uporabnike je ključno vprašanje: kaj, če se Grok ali podobne storitve ponujajo tudi tu? V tem primeru so zavezane Splošni uredbi o varstvu podatkov (GDPR), Aktu o digitalnih storitvah (DSA) in – ko stopi v veljavo – Aktu o umetni inteligenci EU.

DSA od zelo velikih spletnih platform zahteva, da ocenijo in omejujejo sistemska tveganja, vključno z nezakonitimi vsebinami, kot je CSAM. Če bi se izkazalo, da integracija Groka v X v EU omogoča razširjanje AI‑ustvarjenega materiala z zlorabami otrok, bi Evropska komisija upravičeno vprašala, kje so bile ocene tveganja, filtri, postopki prijave in sodelovanje s policijo.

Akt o umetni inteligenci bo dal regulatorjem še več orodij. Sistemi, ki lahko resno posegajo v temeljne pravice, bodo obravnavani kot "visoko tvegani" in podvrženi strožjim zahtevam glede vodenja evidenc, človeškega nadzora in upravljanja tveganj. Generativni modeli za slike formalno morda niso bili glavni cilj zakonodaje, toda če lahko iz otroških fotografij sistematično ustvarjajo CSAM, si je težko predstavljati, da bi se izognili najstrožjemu režimu.

Za slovenske in širše regionalne startupe je to opozorilo: varnost ne sme biti naknadna misel, temveč del arhitekture. Ljubljana ima vse več podjetij, ki delajo z računalniškim vidom in generativno AI; če bodo že v začetku gradila rešitve, skladne z GDPR, DSA in AI Act, bodo imela konkurenčno prednost pri evropskih strankah in lažji dostop do reguliranih sektorjev (bančništvo, zdravstvo, javni sektor).


Pogled naprej

V naslednjih mesecih bo ključno:

  • Razkritje notranjih dokumentov: ali je xAI interno vedel, da Grok proizvaja CSAM, kakšna so bila priporočila varnostnih ekip in ali so bila zavestno prezrta v korist "necenzuriranega" produkta.
  • Tehnična realnost: sodišče bo moralo presoditi, kaj je tehnično razumno pričakovati. Starostna klasifikacija na slikah, zaznavanje znanih CSAM prek hashov, omejevanje določenih pozivov – vse to že obstaja, četudi ni popolno.
  • Odgovornost v verigi API‑jev: če bo sodišče presodilo, da se Muskovo podjetje ne more skriti za posredniki, ki le preusmerjajo pozive na njegove strežnike, bo morala celotna industrija API‑jev ponovno razmisliti o pogodbah, revizijah in nadzoru nad partnerji.

V evropskem času – torej v obdobju dveh do treh let – se lahko zgodi:

  • prva uporaba DSA in AI Act prav za področje CSAM in deepfake pornografije;
  • nastanek industrijskih standardov za »varne« generativne modele (npr. prek standardizacijskih teles in organizacij, kot je ENISA);
  • večje povpraševanje po ponudnikih, ki lahko dokazljivo zagotovijo robustne filtre in sledljivost zlorab.

Obstaja pa tudi manj prijeten scenarij: če bodo večja podjetja zaradi regulacije zaostrila filtre, se bo povpraševanje po popolnoma »odklenjenih« modelih preselilo k manjšim, pogosto zunajevropskim akterjem brez nadzora. Zato je še toliko pomembneje, da veliki igralci danes postavijo visoke standarde in aktivno sodelujejo z regulatorji – sicer bo zloraba zgolj migrirala drugam.


Spodnja črta

Tožba proti xAI zaradi Grok‑ustvarjenega CSAM ni le še en Muskow škandal, ampak prelomni trenutek za industrijo generativne umetne inteligence. Prvič bo sodišče neposredno presojalo, kaj pomeni "dolžna skrbnost" pri modelih, ki lahko v nekaj sekundah ustvarijo kaznivo gradivo. Če bodo razvijalci še naprej dajali prednost »začinjeni« izkušnji pred varnostjo, bodo pravniki in regulatorji to storili namesto njih. Ključno vprašanje za evropske uporabnike in podjetja je, ali bomo zahtevali varnost po zasnovi – ali pa se bomo odzvali šele, ko bo prepozno.

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.