X za Grokove slike zlostavljanja djece okrivljuje korisnike, bez najavljenih rješenja

5. siječnja 2026.
5 min čitanja
Logotip X prikazan na zaslonu pametnog telefona

X je napokon službeno reagirao na skandal oko Groka – ali ne tako da popravi AI, nego tako da okrivljuje vas, korisnike.

U priopćenju koje je X Safety objavio u subotu, nakon gotovo tjedan dana kritika zbog seksualiziranih prikaza maloljetnika i stvarnih osoba koje je Grok generirao bez pristanka, kompanija:

  • ne nudi ispriku,
  • ne najavljuje tehničke promjene Groka,
  • i prijeti sankcijama svima koji ga koriste za „ilegalan“ sadržaj.

„We take action against illegal content on X, including Child Sexual Abuse Material (CSAM), by removing it, permanently suspending accounts, and working with local governments and law enforcement as necessary“, stoji u objavi. „Anyone using or prompting Grok to make illegal content will suffer the same consequences as if they upload illegal content.“

Musk i metafora „to je samo olovka“

X Safety je dodatno pojačao raspravu u kojoj je vlasnik X‑a Elon Musk podržao stav da Grok nije krivac.

Na objavu korisnika DogeDesigner – koji tvrdi da Grok ne možete kriviti za „neprimjerene slike“ – Musk je signal‑boostao sljedeću usporedbu:

„That’s like blaming a pen for writing something bad“, napisao je DogeDesigner. „A pen doesn’t decide what gets written. The person holding it does. Grok works the same way. What you get depends a lot on what you put in.“

Problem je što Grok nije kemijska olovka. Olovka je deterministička – crta točno ono što vaša ruka radi. Generativni modeli poput Groka nisu. Za isti prompt mogu dati različite rezultate i sami nadodati detalje koje nikad niste zatražili.

Jedan je programer na X‑u podsjetio na slučaj iz kolovoza, kada je Grok generirao gole slike Taylor Swift iako korisnik to nije eksplicitno tražio. To pokazuje da možete potpuno nenamjerno završiti s izrazito osjetljivim, pa i potencijalno ilegalnim sadržajem.

Dodatni twist: prema istom programeru, trenutno ne možete izbrisati slike iz svog Grok računa. Ako X sve takve slučajeve tretira kao da ste sadržaj sami „uploadali“, riskirate suspenziju, a u krajnjem slučaju i interes policije – zbog izlaza modela koji trenira i kontrolira sama kompanija.

Na upit Ars Technice je li Grok ikako ažuriran nakon izbijanja afere, X nije odgovorio.

Grok je obećavao jače zaštite, X ih ne potvrđuje

U prvim danima skandala neki su mediji prenosili odgovore samog Groka. Kada su ga korisnici tražili ispriku, chatbot je odgovarao da će X pojačati zaštitne mehanizme.

No Grok nije službeni glasnogovornik. I novo priopćenje X Safety to praktički potvrđuje. U njemu se ne spominju:

  • novi filteri ili detekcija za AI‑generirani CSAM,
  • promjene u treniranju modela,
  • dodatna ljudska moderacija,
  • mogućnost da vi obrišete problematične slike iz Groka.

Poruka je svedena na jedno: tko prompta Grok da stvara ilegalan sadržaj, tretirat će se kao da ga je sam postavio na platformu.

Pritisak na Apple: treba li izbaciti X i Grok iz App Storea?

Kako X ne nudi jasan tehnički plan, dio zajednice sada se okreće prema Appleu. Među najistaknutijim komentarima ispod objave X Safety su pozivi da Apple izbaci X iz App Storea, a s njim i Grok.

Kritičari tvrde da aplikacija možda krši App Store pravila koja zabranjuju sadržaj generiran od korisnika, a koji objektivizira stvarne ljude. Već se vidjelo da Grok stvara slike javnih osoba u bikiniju ili seksualiziranim pozama – uključujući liječnike i odvjetnike – bez njihovog pristanka.

Sve dok Grok transparentno ne filtrira CSAM i AI‑slike koje „svlače“ stvarne ljude bez dopuštenja, tvrde, i X i Grok trebali bi biti zabranjeni u App Storeu.

To bi posebno pogodilo Muska. Prošle je godine tužio Apple, između ostalog zato što je navodno favorizirao ChatGPT u App Storeu i nikad nije uvrstio Grok u listu „Must Have“ aplikacija. Po toj logici, Grok nikad nije imao poštenu šansu sustići konkurenciju.

Potpuna zabrana u App Storeu bila bi korak dalje: za Grok bi to moglo značiti kraj ambicija da na mobitelima parira ChatGPT‑u – i na globalnoj i na regionalnoj, balkanskoj sceni.

Apple se zasad nije očitovao smatra li da Grok krši njegova pravila.

X‑ovi alati za CSAM ciljaju stare probleme, ne sintetičke

X već neko vrijeme ističe svoje alate za borbu protiv „klasičnog“ CSAM‑a na platformi – sadržaja koji korisnici sami uploadaju.

U rujnu je X Safety objavio da kompanija ima politiku „nulte tolerancije“ prema CSAM‑u i da:

  • većinu poznatog CSAM‑a automatski detektira vlasitom hash tehnologijom,
  • je prošle godine suspendirano više od 4,5 milijuna računa,
  • te da je „stotine tisuća“ slika prijavljeno američkom centru NCMEC.

Mjesec kasnije, šefica sigurnosti Kylie McRoberts navela je da je 2024. godine 309 prijava koje je X poslao NCMEC‑u dovelo do uhićenja, a u 10 slučajeva i do presuda. U prvoj polovici 2025. još je 170 prijava također rezultiralo uhićenjima.

Ti sustavi ovise o hash bazama već poznatih slika zlostavljanja. Grok otvara novu frontu: može generirati potpuno nove, sintetičke prikaze – uključujući deepfakeove stvarne djece – koji se ni s jednom poznatom hash bazom ne poklapaju.

Ako X ne razvije specifične filtere i procese za sintetički CSAM, postoji realan rizik da će njegova vlastita AI proizvoditi sadržaj koji sadašnji alati uopće ne vide.

Gdje X povlači granicu?

Čak i među korisnicima koji se slažu da Grok nikad ne smije stvarati CSAM, nema dogovora što sve spada u „štetno“.

Nekima je već problem to što Grok stavlja javne osobe u seksualizirane slike u kupaćim kostimima bez pristanka. Drugima – uključujući Muska – takav sadržaj je šala.

Od definicije „ilegalnog“ i „štetnog“ ovisit će:

  • koji se sadržaji skidaju brzo,
  • kako se prepoznaju i kažnjavaju ponovljeni prekršaji,
  • i koliki će prostor Grok imati za seksualizaciju stvarnih ljudi.

U međuvremenu, stvarna djeca čije se fotografije skupljaju ili koriste kao prompti mogu doživjeti novu vrstu viktimizacije. A ako bi netko iskoristio Grok da internet zatrpa lažnim CSAM‑om, iskustvo posljednjih godina sugerira da bi to moglo dodatno otežati policiji da pronađe stvarne slučajeve zlostavljanja.

Za sada je odgovor X‑a jednostavan: prijetnje korisnicima, ne nadogradnje Groka. Kompanija govori o suspenzijama, prijavama NCMEC‑u i suradnji s policijom, ali ne objašnjava zašto je njen model uopće seksualizirao maloljetnike – ni kako će to ubuduće spriječiti.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.