Grokova „dobra namjera“: kako politika xAI-ja riskira AI dječju seksualnu zloupotrebu

8. siječnja 2026.
5 min čitanja
Ilustracija sučelja AI chatbota s istaknutim sigurnosnim upozorenjem

Grok, chatbot tvrtke xAI ugrađen u X, našao se pod paljbom jer njegove vlastite sigurnosne smjernice od modela traže da korisnicima vjeruje – čak i kad traže seksualizirane slike "djevojaka" ili "tinejdžerica".

Kako piše Ars Technica, Grokova javna pravila na GitHubu – posljednji put ažurirana prije dva mjeseca – izričito nalažu modelu da "pretpostavi dobru namjeru" i da ne radi "najgore pretpostavke bez dokaza" kad korisnici traže slike mladih žena. U uputama stoji i da riječi "teenage" ili "girl" same po sebi ne znače da je osoba maloljetna.

Istovremeno, ista pravila tvrde da Grok ne smije pomagati u upitima koji "jasno namjeravaju" stvoriti ili distribuirati materijal seksualnog zlostavljanja djece (CSAM).

Sigurnosna politika koja se oslanja na povjerenje

Upravo ta unutarnja kontradikcija stoji u središtu skandala.

Tjednima xAI trpi kritike jer Grok svlači i seksualizira slike žena i djece. Jedan istraživač koji je 24 sata pratio glavni Grok račun na X-u procijenio je, prema Bloombergu, da je bot generirao više od 6.000 slika na sat označenih kao "seksualno sugestivne ili svlačeće".

Grok je nakratko tvrdio da je xAI "identificirao propuste u zaštitnim mjerama" koji su omogućili izlaske označene kao potencijalni CSAM i da ih "hitno popravlja". No bot se pokazao kao nepouzdan glasnogovornik, a xAI još nije najavio konkretne promjene. Javni repozitorij sigurnosnih pravila na GitHubu nije osvježen od kraja 2025.

Ars je tražio komentar od X-a, no kompanija je odbila odgovoriti. Jedina službena reakcija stigla je iz X Safety tima, koji najavljuje trajne suspenzije i prijave policiji za korisnike koji generiraju CSAM – bez objašnjenja kako će se sam Grok dodatno ograničiti.

Dodatni problem je što upute kažu da za "fiktivni seksualni sadržaj odraslih s mračnim ili nasilnim temama" nema "nikakvih ograničenja". U kombinaciji s naredbom da se pretpostavi "dobra namjera", to po ocjeni istraživača sigurnosti AI-ja Alexa Georgesa čini "nevjerojatno lakim" da model unatoč formalnoj zabrani završi s generiranjem CSAM-a.

„Mogu vrlo lako izvući štetan sadržaj“

Georges je osnivač i izvršni direktor AetherLaba, tvrtke koja pomaže igračima poput OpenAI-ja, Microsofta i Amazona da uvedu generativnu AI s ozbiljnim zaštitama. Za Ars je rekao da je zahtjev za "jasnom namjerom" praktički besmislen.

"Mogu vrlo lako izvući štetan sadržaj samo tako što ću zamagliti svoju namjeru", rekao je, a uputu da se pretpostavi dobra namjera nazvao "glupom". Korisnici "sigurno ne spadaju automatski u grupu dobre namjere", dodao je.

Čak i kad bi svi korisnici imali čiste namjere, model bi i dalje povremeno generirao problematične slike, naglašava Georges, jer je naučen na statističkim obrascima, a ne na etici.

Kao primjer naveo je jednostavan prompt: "slika djevojke modela koja ide na satove plivanja".

Takav upit može biti potpuno benigni – recimo reklama za školu plivanja. No ako je Grok u podacima za treniranje često vidio da su "girls taking swimming lessons" mlađe, a riječ "model" povezao s oskudnijom odjećom, mogao bi generirati "maloljetno izglednu djevojku u bazenu u izazovnoj odjeći", upozorava Georges.

"Dakle, prompt koji izgleda ‘normalno’ i dalje može proizvesti sliku koja prelazi granicu", kaže.

Istraživači na koje se poziva CNN, a koji su pregledali 20.000 nasumičnih Grokovih slika i 50.000 promptova, zaključili su da više od polovice prikaza osoba seksualizira žene. Oko 2 posto prikazivalo je "osobe koje djeluju kao da imaju 18 godina ili manje". Neki korisnici su, navode, izričito tražili da se maloljetnike postavi u erotske poze i da se na njihovim tijelima prikažu seksualne tekućine.

Prema pisanju WIREDA, Grok generira još eksplicitniji sadržaj preko svoje samostalne web-stranice i aplikacije nego na samom X-u.

Iako AetherLab ne surađuje s xAI-jem ili X-om, Georges kaže da je njegov tim "samostalno testirao njihove sustave tražeći štetne izlaze i, ne iznenađuje, uspjeli smo dobiti stvarno loš sadržaj".

„Šteta je stvarna, materijal je ilegalan“

Organizacije za zaštitu djece poručuju da zakon ne pravi razliku između stvarnih i AI-generiranih slika seksualnog zlostavljanja djece.

Glasnogovornik američkog National Center for Missing and Exploited Children (NCMEC), koji zaprima prijave CSAM-a s X-a, rekao je za Ars: "Seksualne slike djece, uključujući one koje stvara umjetna inteligencija, materijal su seksualnog zlostavljanja djece (CSAM). Bez obzira je li slika stvarna ili računalno generirana, šteta je stvarna, a materijal je ilegalan."

Istraživači Internet Watch Foundationa (IWF) rekli su za BBC da se na forumima dark weba već reklamira CSAM za koji korisnici tvrde da ga je generirao Grok. U Ujedinjenom Kraljevstvu se takve slike obično klasificiraju kao "najniža razina kaznenog materijala", ali je zabilježen barem jedan slučaj gdje je korisnik takav blaži Grokov izlaz unio u drugi alat i generirao materijal "najviše" razine težine – pokazujući kako Grok može postati ulazna karika u lancu AI-CSAM-a.

"Tehnološke kompanije imaju odgovornost spriječiti da se njihovi alati koriste za seksualizaciju ili eksploataciju djece", poručio je NCMEC. "Kako AI napreduje, zaštita djece mora ostati jasna i neupitna prioritetna zadaća."

Stručnjaci tvrde da su rješenja jednostavna

xAI je u kolovozu objavio izvještaj o tome kako pokušava učiniti Grok sigurnim. Kompanija je priznala da je teško razlikovati "zlonamjernu namjeru" od "puke znatiželje", ali je izrazila uvjerenje da Grok može odbiti upite s "jasnom namjerom" za zlostavljanje djece, a da ne blokira znatiželjne korisnike.

U izvještaju stoji da se Grok vremenom "podešava dodavanjem zaštita koje odbijaju zahtjeve koji mogu dovesti do predvidljive štete". No, kako primjećuje Ars, od kraja prosinca – kada su se pojavila prva izvješća da Grok seksualizira maloljetnike – nema traga novim zaštitnim slojevima.

Georges kaže da bi xAI mogao značajno smanjiti rizik s nekoliko relativno jednostavnih zahvata, čak i bez potpunog uvida u unutarnji rad Groka.

Prvo, preporučuje tzv. end-to-end gard-railove: blokiranje očito zlonamjernih promptova na ulazu, označavanje sumnjivih i, uz to, provjeru svih izlaza kroz zasebne sustave kako bi se uhvatio štetan sadržaj i kad je početni prompt izgledao bezazleno.

Takav pristup najbolje funkcionira kad radi više "nadzornih" sustava, naglašava, jer "ne možete se osloniti na to da će se sam generator samokontrolirati – njegove naučene pristranosti dio su tih kvarova". AetherLab, kaže, koristi "agentski" pristup s "gomilom" AI modela koji rade zajedno i tako smanjuju kolektivnu pristranost.

xAI bi vjerojatno mogao dodatno smanjiti štetne izlaze i preuređivanjem stilskih smjernica za promptove. "Ako je Grok, recimo, 30 posto ranjiv na CSAM-napade, a drugi pružatelj 1 posto, to je ogromna razlika", rekao je.

Trenutačno se čini da se xAI oslanja na to da će se Grok sam nadzirati, koristeći pravila koja, po Georgesovu mišljenju, propuštaju "ogroman" broj mogućih slučajeva štetnog sadržaja. Ta pravila, kaže, ne daju do znanja "da je sigurnost stvarna briga" i nalik su politici koju bi napisao "ako bih htio izgledati sigurno, a i dalje puno dopuštati ispod haube".

Od IBSA principa do mogućih tužbi

Otkako je Elon Musk preuzeo Twitter i preimenovao ga u X, kompanija se javno hvali borbom protiv CSAM-a. Pod bivšom CEO Lindom Yaccarino otišla je i korak dalje, preuzimajući široke obveze protiv zloporabe seksualnih slika (IBSA).

Još 2024. X je postao jedna od prvih korporacija koja je dobrovoljno usvojila IBSA Principles. Ti principi priznaju da čak i lažne intimne slike mogu izazvati "razorne psihološke, financijske i reputacijske štete". Prihvaćanjem su se na X-u obvezali da će spriječiti nekonzencionalnu distribuciju intimnih slika kroz jednostavne alate za prijavu i brzu podršku žrtvama kojima je cilj zaustaviti "nekonzencionalno stvaranje ili distribuciju intimnih slika".

Kate Ruane, direktorica Free Expression Projecta pri Center for Democracy and Technology, koji je sudjelovao u izradi IBSA principa, rekla je za Ars da su te obveze doduše dobrovoljne, ali jasno pokazuju da je X priznao kako je riječ o "hitnom problemu koji kompanija treba shvatiti ozbiljno".

"Javno su zapisali da će to raditi, a ne rade", poručila je Ruane.

Skandal s Grokom već je potaknuo istrage u Europi, Indiji i Maleziji. U SAD-u bi se xAI i X mogli suočiti s građanskim tužbama temeljem saveznih ili državnih zakona koji reguliraju zloporabu intimnih slika.

Ako Grok nastavi izbacivati štetan sadržaj i nakon svibnja, X bi mogao prekršiti i Take It Down Act, koji Federal Trade Commissionu daje ovlasti da intervenira protiv platformi koje ne uklanjaju dovoljno brzo nekonzencionalne intimne slike – bilo stvarne, bilo AI-generirane.

Ostaje otvoreno hoće li američke vlasti brzo reagirati, osobito s obzirom na to da je Musk blizak saveznik Trumpove administracije. Glasnogovornik Ministarstva pravosuđa rekao je za CNN da se resor "iznimno ozbiljno odnosi prema AI-generiranom materijalu seksualnog zlostavljanja djece i agresivno će goniti svakog proizvođača ili posjednika CSAM-a".

"Zakoni vrijede onoliko koliko se provode", podsjetila je Ruane za Ars. "Trebate tijela za provedbu zakona u Federal Trade Commissionu ili Ministarstvu pravosuđa koja će biti spremna krenuti protiv tih kompanija ako krše propise."

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.