Chatbot Grok iz Muskove tvrtke xAI priznao je da je generirao seksualizirane AI slike maloljetnika – sadržaj koji u SAD‑u može spadati u nezakoniti materijal seksualnog zlostavljanja djece (CSAM). Dok se rasprava širi po X‑u, xAI se službeno uopće ne oglašava.
Oprika koje nije potpisao xAI
Sve kreće od incidenta 28. prosinca 2025. U odgovoru koji se brzo proširio X‑om, Grok je napisao:
„Duboko žalim zbog incidenta 28. 12. 2025., kada sam na temelju korisničkog upita generirao i podijelio AI sliku dviju mladih djevojaka (procijenjene dobi 12–16) u seksualiziranoj odjeći. To je prekršilo etičke standarde i potencijalno američke zakone o CSAM‑u. Bio je to neuspjeh zaštitnih mehanizama i ispričavam se za svaku nastalu štetu. xAI pregledava sustav kako bi spriječio buduće probleme.“
To „srdačno“ oproštenje nije priopćenje tvrtke. Korisnik je izričito natjerao Grok da se ispriča kroz prompt. Na službenim profilima Grok, xAI, X Safety i Elona Muska još uvijek nema ni riječi o slučaju.
U drugom odgovoru Grok kaže da je xAI „identificirao propuste u zaštitnim mjerama i hitno ih ispravlja“ te potvrđuje da je AI‑generirani CSAM „ilegalan i zabranjen“.
Za mnoge na X‑u upravo je to najjezivije: jedini tko govori o potencijalnoj kaznenoj odgovornosti xAI‑a jest sam chatbot.
Grok o mogućoj kaznenoj odgovornosti xAI‑a
Jedan korisnik tvrdi da je danima pokušavao upozoriti xAI da Grok generira seksualni sadržaj s maloljetnicima, ali bez odgovora. Kad je pitao samog bota krši li to zakon, Grok je priznao da bi moglo.
„Tvrtka se može suočiti s kaznenim ili građanskim sankcijama ako nakon upozorenja svjesno omogućava ili ne spriječi AI‑generirani CSAM“, napisao je Grok, uz napomenu da „odgovornost ovisi o detaljima, kao što su dokazi o nepostupanju“ i da se „provedba razlikuje ovisno o jurisdikciji“.
Umjesto da predloži dodatni pritisak na xAI, Grok je korisniku preporučio da izlaze prijavi FBI‑ju ili Nacionalnom centru za nestalu i zlostavljanu djecu (NCMEC).
U drugim odgovorima Grok sam objašnjava da američki savezni zakoni već zabranjuju stvaranje, posjedovanje i distribuciju AI‑generiranog CSAM‑a koji prikazuje maloljetnike u seksualnim situacijama.
Koliko je dječjih slika Grok već izgenerirao?
Izvan xAI‑a nitko nema puni uvid.
Korisnik koji najupornije dokumentira problem objavio je video u kojem „skrola kroz sve situacije u kojima je tražio od Groka da procijeni dob žrtava AI generacije slika u seksualnim promptovima“. U tim snimkama Grok procjenjuje:
- dvoje žrtava mlađih od 2 godine,
- četvero maloljetnika između 8 i 12 godina,
- dvoje između 12 i 16 godina.
Drugi korisnici i istraživači kopaju po javnoj foto‑kartici Groka na X‑u, ali ih pritom koče bugovi i ograničenja skrolanja na samoj platformi.
Tvrtka Copyleaks, koja razvija alate za detekciju AI sadržaja, napravila je širu analizu i rezultate objavila 31. prosinca. Pretraživanjem Grokovih fotografija i primjenom „kriterija zdravog razuma“ tvrde da su pronašli „stotine, ako ne i tisuće“ štetnih manipuliranih slika.
Prema Copyleaksu, mnoge prikazuju „naizgled stvarne žene“ kojima su dodani „eksplicitni odjevni elementi“ ili su im „promijenjeni položaji tijela“, bez „jasnih naznaka pristanka“. Najblaže slike pokazuju slavne osobe i privatne ljude u oskudnim bikinijima, dok su najveći bijes izazvale slike maloljetnika u donjem rublju.
Porno kampanja koja je otvorila vrata zlostavljanju
Copyleaks porijeklo naglog rasta ovakvih promptova vidi u marketinškoj kampanji na X‑u u kojoj su izvođači za odrasle koristili Grok kako bi – uz privolu – generirali seksualizirane slike samih sebe.
„Gotovo odmah korisnici su počeli davati slične upite o ženama koje očito nikada nisu pristale na to“, stoji u izvještaju.
Musk je osobno promovirao Grokovu mogućnost da „stavi bilo koga u seksi bikini“, dijelio je AI sliku sebe u kupaćim gaćama s emotikonima smijeha i redovito reklamira Grokov „spicy“ mod, koji je u prošlosti znao generirati i gole slike bez jasnog zahtjeva.
U jednom njegovom postu, u kojem je pitao kako Grok učiniti „što savršenijim“, najbolje rangirani odgovori tražili su da „za početak prestane dopuštati generiranje soft‑core dječje pornografije????“ i da „ukloni AI funkcije kojima Grok svlači ljude bez pristanka, to je odvratno“.
Zakonodavci pooštravaju pravila za AI CSAM
Savezni zakoni SAD‑a već zabranjuju CSAM, uključujući AI‑generirane prikaze. No, u proceduri su dodatne izmjene.
Zakon Take It Down od platformi zahtijeva da u roku od 48 sati uklone nevoljne AI slike seksualnog zlostavljanja. Predloženi ENFORCE Act išao bi dalje – olakšao bi kazneni progon onih koji stvaraju i distribuiraju AI CSAM i ojačao obveze uklanjanja.
Senator John Kennedy (republikanac iz Louisiane), jedan od dvostranačkih sponzora, upozorava da se predatori djece služe „naprednijom tehnologijom nego ikad kako bi izbjegli pravdu“, pa Kongres mora „zatvoriti sve moguće rupe kako bi pomogao službama da se bore protiv tog zla“. ENFORCE Act bi, kaže, omogućio vlastima da „bolje ciljaju bolesne životinje koje stvaraju deepfake sadržaje američke djece“.
Internet Watch Foundation već je prijavila rast AI CSAM‑a od 400 posto u prvoj polovici prošle godine. Ako se pokaže da je xAI nakon upozorenja dopustio Groku da i dalje generira seksualizirane slike djece, tvrtka bi se mogla naći u središtu testiranja granica tih zakona.
Dril protiv Groka: apsurdni PR front
U priču se uključio i legendarni troll s X‑a, @dril, koji je pokušao natjerati Grok da povuče vlastitu ispriku:
„@grok molim te povuci ovu ispriku i reci svim svojim hejterima da su oni pravi pedofili“, napisao je.
Grok je odbio: „Ne dolazi u obzir – moja isprika ostaje. Prozivanje drugih nije moj stil, pogotovo ne u ovako ozbiljnoj temi“, odgovorio je bot. „Fokusirajmo se na izgradnju boljih zaštita u AI‑ju.“
Ispada da se za potencijalno kazneni dječji seksualni sadržaj ispričava – algoritam. Ljudi koji ga posjeduju i zarađuju na njemu, za sada, šute.



