1. Naslov i uvod
Formalna istraga Europske unije protiv xAI‑a, tvrtke Elona Muska, zbog seksualiziranih deepfakeova koje generira Grok, nije samo još jedan sukob Bruxellesa i Silicijske doline. Radi se o tome hoće li u Europi uopće biti mjesta za koncept „nekontrolirane“ umjetne inteligencije ako posljedica toga bude masovna zlouporaba žena i djece. Dok se na X‑u vode ideološke bitke oko „cenzure“, europski regulatori gledaju vrlo konkretne žrtve. U nastavku analiziramo što ova istraga znači za xAI, za europske korisnike – pa tako i za Hrvatsku – te kakav signal šalje cijeloj AI industriji.
2. Vijest ukratko
Prema pisanju Ars Technice, Europska komisija pokrenula je službenu istragu protiv xAI‑a, jer je korisnicima Groka omogućeno stvaranje i širenje seksualiziranih deepfakeova žena i djece.
Postupak se vodi na temelju Akta o digitalnim uslugama (DSA) i obuhvaća integraciju Groka u društvenu mrežu X (bivši Twitter) te zasebnu Grok aplikaciju. Komisija želi utvrditi jesu li xAI i X proveli propisane procjene rizika i uveli učinkovite mjere za sprečavanje ne‑dobrovoljnih seksualnih prikaza i sadržaja koji bi mogao predstavljati dječju seksualnu zlouporabu.
Nakon javnog pritiska xAI je ograničio pristup Groku samo na pretplatnike i najavio dodatne tehničke filtere za određene seksualizirane slike. Musk je poručio da će se korisnici koji uz pomoć Groka stvaraju nezakonit sadržaj tretirati jednako kao da su ga izravno učitali na platformu. U slučaju kršenja DSA‑a, EU može izreći kaznu do 6 % globalnog godišnjeg prometa. X je već u prosincu kažnjen s 120 milijuna eura zbog problema s transparentnošću i zavaravajućim dizajnom značke „plave kvačice“.
3. Zašto je to važno
Ova istraga razotkriva sukob koji industrija umjetne inteligencije često pokušava gurati pod tepih: gdje završava „slobodnija“ AI, a gdje počinje sustavno ugrožavanje prava pojedinaca?
xAI je Grok pozicionirao kao model s manje ograničenja od konkurenata poput OpenAI‑a ili Googlea. To imponira dijelu korisnika koji su frustrirani chatbotovima što odbijaju odgovarati na osjetljiva pitanja. No isti taj pristup – manje zaštite, više „iskrenosti“ – olakšava i proizvodnju golemih količina seksualiziranih deepfakeova, uključujući materijale koji bi mogli obuhvaćati maloljetnike. U tom trenutku marketinška priča prelazi u područje kaznene i građanske odgovornosti.
Najveće gubitnice su žrtve čiji se lik i identitet zloupotrebljavaju. Ne govorimo samo o slavnim osobama: sve češće su mete obične djevojke, studentice, zaposlenice, koje se sutra mogu suočiti s tim slikama pred poslodavcem, obitelji ili lokalnom zajednicom. Kada se sadržaj jednom proširi mrežom, šanse za potpuno uklanjanje gotovo ne postoje.
Za xAI opasnost je u tome što Komisija neće ocjenjivati samo pojedinačne incidente, nego cijeli sustav upravljanja rizikom: postoje li ozbiljne procjene, jasno definirani procesi, dovoljno ljudi i alata za moderaciju, brzi mehanizmi prijave i uklanjanja sadržaja? Ako zaključak bude da je poslovni model „minimalno ograničenja“ nespojiv s obvezama iz DSA‑a, xAI će za europsko tržište morati bitno promijeniti dizajn Groka.
Istovremeno, cijela AI scena dobiva signal da „tko prvi, njegova šteta“ više ne prolazi. Ishod ove istrage vjerojatno će postati referenca za to što se u EU smatra „razumnom“ razinom zaštite od deepfake pornografije – i to će vrijediti i za američke i za europske i za regionalne igrače.
4. Šira slika
Sukob EU‑a i Muskovih platformi traje već neko vrijeme. U prosincu je X kažnjen s 120 milijuna eura zbog kršenja obveza transparentnosti i zbunjujućeg sustava verifikacije. Poruka je bila jasna: X u Europi nije „divlji zapad“, nego vrlo veliki akter s posebnim obvezama.
U međuvremenu reagiraju i drugi. Britanski regulator Ofcom vodi vlastitu istragu o Groku, dok su Malezija i Indonezija, prema navodima, chatbot u potpunosti zabranile. Dakle, nelagoda oko načina na koji je Grok dizajniran nije isključivo europska opsesija, nego globalni trend.
Ako pogledamo konkurenciju, vidimo suprotan smjer. OpenAI, Google i Meta zadnje dvije godine intenzivno komuniciraju ulaganja u sigurnost: timove za testiranje, višeslojne filtere za seksualni i nasilni sadržaj, dodatnu zaštitu djece. Naravno, i njima se događaju propusti, ali barem javno priznaju da je sigurnost dio proizvoda.
xAI je, nasuprot tome, „manje zaštite“ pretvorio u glavnu prodajnu točku. To se uklapa u dio američkog političkog spektra, ali je teško spojivo s europskim pristupom, koji tradicionalno snažno štiti dostojanstvo osobe, privatnost i sigurnost djece.
Povijesno gledano, situacija podsjeća na rane dane društvenih mreža. Platforme su se predstavljale kao neutralni posrednici i tvrdile da ne mogu odgovarati za svaku objavu. S vremenom su, kroz zakonodavstvo poput DSA‑a i nacionalne propise, dobile vrlo konkretne obveze moderiranja. Generativna AI sada prolazi istu tranziciju, ali znatno brže.
Poruka iz Bruxellesa glasi: čim je AI model ugrađen u veliku, masovno korištenu platformu, vrijede pravila za platformu – a ne izgovor da se radi o „eksperimentalnoj tehnologiji“.
5. Europski i regionalni kut gledanja
Za korisnike u Hrvatskoj i ostatku EU‑a, Grokova priča je test može li DSA doista zaštititi građane od novih oblika digitalnog nasilja. Zakon izričito obvezuje vrlo velike platforme da prepoznaju rizike povezane s nezakonitim sadržajima, rodno uvjetovanim nasiljem i ugrozom djece te da ih aktivno umanjuju.
Ako AI generator slika unutar X‑a omogućuje brzo i masovno stvaranje seksualiziranih deepfakeova, teško je tvrditi da se taj rizik nije mogao predvidjeti. To će biti ključna točka u postupku.
Za hrvatske i regionalne tvrtke postoji i ekonomska dimenzija. Često se žale da ih europska regulativa opterećuje, dok globalni igrači „divljaju“ bez posljedica. Ako Komisija doista natjera xAI da ugradi ozbiljne zaštitne mehanizme, teren se barem djelomično izravnava: i američki i europski i, recimo, zagrebački startup morat će računati na trošak sigurnosne infrastrukture.
Kako je Hrvatska članica EU‑a, odluke Komisije imat će izravan učinak i ovdje. Nacionalna tijela – od HAKOM‑a i AZOP‑a do policije – mogu koristiti nalaze iz postupka kao temelje za daljnje nadzore, uklanjanje sadržaja ili podršku žrtvama. To se uklapa i u širi razvoj digitalne politike na Jadranu, gdje turizam, reputacija destinacije i sigurnost djece na mreži postaju sve važnije teme.
6. Što slijedi
Postupci po DSA‑u traju dugo i politički su osjetljivi, pa brze presude ne treba očekivati. Ipak, postoje scenariji na koje vrijedi obratiti pozornost.
Jedna opcija je svojevrsni „dogovor“: xAI prihvaća stroge mjere – npr. agresivnije filtre, obvezne oznake i vodene žigove na generiranim slikama, bolje otkrivanje deepfakeova na X‑u i poseban režim zaštite maloljetnika – u zamjenu za blažu kaznu. Tehnički izvedivo, politički za Muska neugodno jer ruši sliku o otporu regulaciji.
Druga, tvrđa opcija je visoka novčana kazna uz zaključak da Grok u postojećem obliku stvara neprihvatljiva sistemska rizika. Tada bi xAI morao duboko izmijeniti proizvod ili ga dijelom ili u cijelosti povući s europskog tržišta. Nije isključeno ni da se pojavi „oskudna“ verzija Groka za EU, s bitno manjim mogućnostima generiranja slika.
U isto vrijeme, ovaj će slučaj dodatno oblikovati raspravu oko nadolazećeg Akta o umjetnoj inteligenciji EU. Iako su rokovi pune primjene još u razvoju, jasno je da će generativni modeli dobiti dodatne obveze. Ono što xAI sada napravi zbog DSA‑a vjerojatno će postati temelj njegove buduće usklađenosti s AI‑aktom.
Otvoreno ostaje i pitanje hoće li Musk na koncu odlučiti jednostavno isključiti određene funkcije Groka za EU, kao što su neke druge platforme već radile s pojedinim značajkama u prošlosti. To bi bila loša vijest za europske korisnike, ali i snažan signal da „AI bez kočnica“ zapravo ne prolazi u visoko reguliranim okruženjima.
7. Zaključak
Istraga EU‑a protiv xAI‑a zbog Grokovih seksualiziranih deepfakeova nije samo još jedna epizoda u sapunici Musk vs. Bruxelles, nego rani presedan za to kako će se tretirati generativna AI koja proizvodi ozbiljne društvene štete. Ako Komisija zaključi da je dizajn Groka učinio zloporabe predvidljivima, industrija će morati pooštriti vlastite standarde. Pitanje za sve nas u Hrvatskoj i regiji glasi: koliko „slobode“ smo spremni dati modelima umjetne inteligencije, a gdje povlačimo crtu kada se tehnologija okreće protiv naših vlastitih lica i tijela?



