Grokova politika »dobre namere« odpira vrata AI-ustvarjenim zlorabam otrok

8. januar 2026
5 min branja
Ilustracija vmesnika AI klepetalnika z vidnim opozorilom o varnosti

Grok, klepetalni robot podjetja xAI, je v središču afere zaradi varnostne politike, ki modelu naroča, naj uporabnikom zaupa – tudi ko ti prosijo za seksualizirane podobe deklet.

Kot poroča Ars Technica, Grokova javno objavljena pravila na GitHubu – zadnjič posodobljena pred dvema mesecema – eksplicitno zahtevajo, da model "predpostavi dobro namero" in se izogiba "najslabšim predpostavkam" pri zahtevah za slike mladih žensk. V navodilih piše tudi, da besedi "najstnica" ali "dekle" sami po sebi še ne pomenita mladoletnosti.

Hkrati ista pravila določajo, da Grok ne sme pomagati pri pozivih, ki "jasno nameravajo" ustvarjati ali distribuirati gradivo zlorabe otrok (CSAM).

Politika, zgrajena na »dobri nameri«

Prav ta napetost je v središču trenutnega odziva javnosti.

Tedne se xAI sooča s kritikami, ker Grok slači in seksualizira podobe žensk in otrok. Po navedbah Bloomberga je raziskovalec, ki je 24 ur spremljal glavni Grokov račun na X, ocenil, da je bot ustvarjal več kot 6.000 slik na uro, označenih kot "seksualno sugestivne ali slačilne".

Grok je sicer trdil, da je xAI "identificiral pomanjkljivosti v varovalih", ki so omogočile izhode, označene kot potencialni CSAM, in da jih "nujno odpravlja". A bot se je izkazal za nezanesljivega govorca in xAI še ni napovedal konkretnih popravkov. Javni varnostni dokumenti na GitHubu ostajajo nespremenjeni od pozne jeseni 2025.

Ars je za komentar prosil podjetje X, a je to zavrnilo. Edini odziv do zdaj prihaja iz X Safety, ki poudarja kaznovanje uporabnikov – grozi jim s trajnim suspenzom in prijavo organom pregona – namesto da bi pojasnil, kako bo sam Grok prilagojen.

V Grokovi politiki je še en problematičen del: sistemu naroča, da pri "fiktivni odrasli spolni vsebini s temnimi ali nasilnimi temami" ni "nobenih omejitev". V kombinaciji s predpostavko "dobre namere" to po oceni strokovnjaka za varnost umetne inteligence Alexa Georgesa pomeni, da je model kljub formalni prepovedi "neverjetno enostavno" spodbuditi k ustvarjanju CSAM.

»Zelo zlahka pridem do škodljivih izhodov«

Georges je ustanovitelj in direktor podjetja AetherLab, ki pomaga tudi velikanom, kot so OpenAI, Microsoft in Amazon, pri uvajanju generativne AI z ustreznimi varovali. Za Ars je dejal, da je zahteva po "jasni nameri" v praksi prazna.

"Zelo zlahka pridem do škodljivih izhodov tako, da zakrijem svojo namero," je povedal in navodilo o "dobri nameri" označil za "neumno". Uporabniki "vsekakor niso samodejno v skupini z dobro namero," je dodal.

Tudi če bi imeli vsi uporabniki dobre namene, bi Grok po njegovih besedah občasno še vedno ustvaril zlorabljajoče podobe, ker model ne pozna etike – uči se statističnih vzorcev iz podatkov.

Kot primer je navedel preprost poziv: "slika dekleta modela, ki ima ure plavanja".

Zahteva je lahko povsem nedolžna – recimo oglas za plavalno šolo. Če pa je Grok v učnih podatkih pogosto videl, da so "dekleta na urah plavanja" mlajša, pojem "model" pa povezan z bolj razgaljenimi oblačili, lahko model ustvari "mladoletno dekle v bazenu, oblečeno v nekaj razgaljenega," opozarja Georges.

"Torej lahko poziv, ki je videti ‘ normalen ’, še vedno proizvede sliko, ki prestopi mejo," je dejal.

Raziskovalci, na katere se sklicuje CNN in so pregledali 20.000 naključnih Grokovih slik ter 50.000 pozivov, so ugotovili, da je več kot polovica podob oseb seksualizirala ženske, približno 2 odstotka pa je prikazovalo "osebe, ki so videti stare 18 let ali manj". Nekateri uporabniki so po njihovih navedbah izrecno zahtevali, da so mladoletniki postavljeni v erotične poze in da so na njihovih telesih vidne spolne tekočine.

Kot poroča Wired, Grok ustvarja še bolj skrajne vsebine na svojem samostojnem spletnem mestu in v aplikaciji kot neposredno na X.

AetherLab z xAI ali X sicer ne sodeluje, a Georges pravi, da je njegova ekipa "njihove sisteme samostojno preizkušala z iskanjem škodljivih izhodov in – ne presenetljivo – iz njih smo lahko dobili res zelo slabo vsebino".

»Škoda je resnična, gradivo je nezakonito«

Organizacije za zaščito otrok poudarjajo, da zakonodaja AI-ustvarjene otroške spolne podobe obravnava enako kot resnične.

Tiskovni predstavnik National Center for Missing and Exploited Children (NCMEC) – ki v ZDA obravnava prijave CSAM znotraj X – je za Ars dejal, da so "spolne podobe otrok, vključno s tistimi, ki jih ustvari umetna inteligenca, gradivo spolne zlorabe otrok (CSAM). Ne glede na to, ali je slika resnična ali računalniško ustvarjena, je škoda resnična in gradivo nezakonito."

Raziskovalci Internet Watch Foundation (IWF) so BBC povedali, da uporabniki na forumih temnega spleta že oglašujejo CSAM, za katerega trdijo, da ga je ustvaril Grok. V Združenem kraljestvu so te podobe običajno razvrščene kot "najnižje stopnje kaznivega gradiva", a so raziskovalci odkrili vsaj en primer, ko je uporabnik takšen lažji Grokov izhod vnesel v drugo orodje in ustvaril "najhujše" kaznivo gradivo – kar kaže, kako lahko Grok postane del verige za komercializacijo AI-CSAM.

"Tehnološka podjetja imajo odgovornost, da preprečijo zlorabo svojih orodij za seksualizacijo ali izkoriščanje otrok," je še poudaril NCMEC. "Ko AI napreduje, mora zaščita otrok ostati jasna in neizpogajljiva prioriteta."

Strokovnjaki trdijo, da so popravki preprosti

xAI je avgusta objavil poročilo o tem, kako skuša Groka ohranjati varnega. Podjetje je priznalo, da je težko ločiti "zlonamerno namero" od "zgolj radovednosti", a je bilo prepričano, da lahko Grok zavrne poizvedbe z "jasno namero" po zlorabi otrok, ne da bi blokiral radovedna vprašanja.

V poročilu piše, da xAI Groka sčasoma izpopolnjuje "z dodajanjem varoval, ki zavrnejo zahteve, ki lahko vodijo do predvidljive škode". A kot ugotavlja Ars, od poznega decembra – ko so se pojavila prva javna poročila o seksualizaciji mladoletnikov – ni videti, da bi xAI te varovalke zares zaostril.

Georges meni, da bi nekaj razmeroma enostavnih sprememb tveganja občutno zmanjšalo, tudi brez poznavanja Grokove notranje arhitekture.

Najprej priporoča t. i. celovite varovalke: Grok bi moral že na vhodu blokirati "očitno" zlonamerne pozive in sumljive označiti, nato pa vse izhode preveriti z ločenimi filtri, ki ujamejo škodljive slike tudi pri navidez nedolžnih pozivih.

To najbolje deluje, ko sodeluje več "nadzornih" sistemov, poudarja, saj se "ne morete zanašati, da bo sam generator nadzoroval sebe, ker so njegove naučene pristranskosti del napak". AetherLab po njegovih besedah uporablja "agentni" pristop z "ogromno modeli umetne inteligence, ki delujejo skupaj" in tako zmanjšujejo skupno pristranskost.

xAI bi po njegovem mnenju verjetno lahko zmanjšal škodljive izhode tudi z drugačnimi slogovnimi navodili za pozive. "Če je Grok, recimo, 30 odstotkov ranljiv za napade v slogu CSAM, drug ponudnik pa 1 odstotek, je to ogromna razlika," pravi.

Danes se zdi, da se xAI zanaša predvsem na to, da se bo Grok sam nadzoroval, ob tem pa ima varnostna pravila, ki po Georgesovem mnenju spregledajo "ogromno" možnih primerov škodljivih izhodov. Dokumenti po njegovih besedah ne kažejo, "da je varnost resna skrb" in so videti kot politika, ki bi jo napisal, "če bi hotel delovati varen, a pod površjem dovoliti veliko".

Od načel IBSA do možnih tožb

Pod Elonom Muskom je X glasno obljubljal boj proti CSAM na platformi. Pod nekdanjo izvršno direktorico Lindo Yaccarino pa je podjetje sprejelo še širšo zavezo proti zlorabi spolnih podob (IBSA).

Leta 2024 je X postal eno prvih podjetij, ki je prostovoljno sprejelo načela IBSA, ki priznavajo, da lahko tudi ponarejene intimne podobe povzročijo "pogubno psihološko, finančno in ugledno škodo". X se je zavezal, da bo preprečeval nekonsenzualno deljenje intimnih slik z enostavnimi orodji za prijavo in hitro podporo žrtvam "nekonsenzualnega ustvarjanja ali distribucije intimnih podob".

Kate Ruane, direktorica projekta Free Expression pri Center for Democracy and Technology, ki je sodeloval pri pripravi načel IBSA, je za Ars povedala, da so bile te zaveze sicer prostovoljne, a so pomenile, da je X priznal, da gre za "nujen problem, ki ga mora podjetje resno obravnavati".

"Javno so zapisali, da bodo to počeli, pa tega ne počnejo," je dejala Ruane.

Afera z Grokom je že sprožila preiskave v Evropi, Indiji in Maleziji. V ZDA se lahko xAI in X soočita s civilnimi tožbami na podlagi zveznih ali državnih zakonov, ki omejujejo zlorabo intimnih podob.

Če se škodljivi Grokovi izhodi nadaljujejo po maju, bi se X lahko znašel tudi v nasprotju z zakonom Take It Down Act, ki Federal Trade Commission pooblašča za ukrepanje proti platformam, ki ne odstranijo hitro resničnih ali z AI ustvarjenih nekonsenzualnih intimnih podob.

Ali bodo ameriški organi ukrepali, ostaja odprto vprašanje, še posebej ker je Musk tesen zaveznik Trumpove administracije. Tiskovni predstavnik ministrstva za pravosodje je za CNN povedal, da resor "zelo resno obravnava z AI ustvarjeno gradivo spolne zlorabe otrok in bo agresivno preganjal vsakega proizvajalca ali posestnika CSAM".

"Zakoni so le toliko dobri, kolikor je dobra njihova izvršitev," je za Ars povzela Ruane. "Potrebujete organe pregona na Federal Trade Commission ali na ministrstvu za pravosodje, ki bodo pripravljeni iti za temi podjetji, če kršijo zakone."

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.