Grok na „uvjetnoj slobodi“: što nam indonezijski zaokret govori o budućnosti regulacije generativne AI

1. veljače 2026.
5 min čitanja
Ilustracija s indonezijskom zastavom, AI chat sučeljem i zamućenim deepfake slikama

Grok na „uvjetnoj slobodi“: što nam indonezijski zaokret govori o budućnosti regulacije generativne AI

Indonezija nije samo tiho ukinula još jednu tehnološku zabranu. Odlučila je xAI‑jev chatbot Grok pustiti natrag u opticaj – ali pod jasnim uvjetima. Time je prvi put jedan veći tržišni akter pretvorio globalni model generativne umjetne inteligencije u svojevrsnog „zatvorenika na uvjetnoj slobodi“. Ishod tog eksperimenta neće biti važan samo za Džakartu, već i za Europsku uniju, pa tako i za Hrvatsku i širu regiju, koja tek gradi vlastita pravila za AI sustave koji mogu masovno stvarati deepfake sadržaje.


Vijest ukratko

Prema pisanju TechCruncha, Indonezija je ukinula zabranu Groka nakon što je od kompanije X (nekadašnji Twitter, danas u vlasništvu xAI) zaprimila pismo s popisom konkretnih mjera za sprječavanje zlouporabe. Indonezija, Malezija i Filipini ranije su blokirali Grok jer je korišten za masovno generiranje seksualiziranih, neovlaštenih slika stvarnih žena i maloljetnika.

TechCrunch navodi analize New York Timesa i organizacije Center for Countering Digital Hate, prema kojima je Grok krajem prosinca i u siječnju iskorišten za izradu najmanje 1,8 milijuna seksualiziranih slika žena. Indonezijsko ministarstvo za komunikacije i digitalne poslove sada naglašava da je zabrana ukinuta „uvjetno“ te da se može ponovno uvesti ako dođe do novih kršenja.

Malezija i Filipini omogućili su ponovni pristup Groku 23. siječnja. U SAD‑u je glavni državni odvjetnik Kalifornije pokrenuo istragu protiv xAI‑ja i naložio tvrtki da odmah obustavi proizvodnju takvog sadržaja. Kao odgovor, xAI je ograničio mogućnosti Groka, primjerice time što je generiranje slika putem AI‑ja omogućio samo pretplatnicima X‑a.


Zašto je to važno

Indonezija je Grok pretvorila u testni slučaj za novi tip regulacije: umjesto trajne zabrane ili potpunog prepuštanja tržištu, uvodi se model „pusti, ali pod nadzorom“. Tvrtka može poslovati, ali s jasnom prijetnjom – ako prekrši pravila, izlaz na tržište se zatvara.

Na prvu loptu, glavni dobitnik je xAI. Izbjegava se trajna blokada u zemlji s više od 270 milijuna stanovnika, a Grok ostaje pozicioniran kao globalni proizvod. Za Elona Muska, koji prema TechCrunchu razmatra čak i spajanje xAI‑ja sa Teslom i SpaceX‑om, rascjepkanost tržišta bila bi ozbiljan problem. Uspješan kompromis s Indonezijom jača njegovu tezu da je bolje „popraviti alat“ nego ga zabraniti.

No netko drugi plaća cijenu. Žene i djeca čija su lica već završila u seksualiziranim deepfakeovima praktički nemaju realnu mogućnost potpuno ukloniti te slike s interneta. Za njih pojam „uvjetnog“ ukidanja zabrane ima smisla samo ako ga prate učinkoviti mehanizmi prijave, uklanjanja sadržaja i zaštite žrtava – a toga danas vidimo vrlo malo.

Posebno je sporan sigurnosni potez xAI‑ja: dio Grokovih mogućnosti sakriven je iza paywalla. Istina je da to smanjuje broj „slučajnih“ zloporaba, ali istovremeno stvara manju, ali motiviraniju skupinu korisnika spremnih platiti za rizične funkcije. Ako regulatori takav pristup priznaju kao dovoljan, industriji se šalje opasan signal: umjesto rješavanja problema na razini modela, dovoljno je dodatno naplatiti pristup najosjetljivijim mogućnostima.

U pozadini svega stoji šira boljka digitalne ekonomije: odgovornost se i dalje prebacuje na regulatore i žrtve, umjesto da bude u startu ugrađena u dizajn proizvoda i poslovne modele. Indonezijski „deal“ jest pragmatičan, ali istovremeno priznaje da su generativni AI sustavi već dobili globalni doseg prije nego što smo uspostavili jasna pravila igre.


Šira slika

Priča o Groku dio je prepoznatljivog obrasca: tehnološke tvrtke lansiraju moćne generativne alate, zatim slijedi val zloporaba, a tek onda dolaze pooštreni filtri i političke reakcije.

Kod ranijih generatora slika gledali smo pojavu vrlo uvjerljivih deepfakeova javnih osoba, prije nego što su dobavljači počeli ozbiljnije blokirati golotinju i određene kombinacije teksta i slike. Velike platforme poput Mete, Snapchata ili drugih društvenih mreža uvodile su AI funkcije, da bi ih kasnije – pod pritiskom nevladinih udruga i regulatora – ograničavale zbog uznemiravanja, lažnih profila i sadržaja štetnog za djecu.

Grok ovu dinamiku podiže na novu razinu iz nekoliko razloga. Prvo, broj zabilježenih zloporaba je ogroman. Drugo, usko je integriran s globalnom društvenom mrežom X, koja već ionako ima napete odnose s regulatorima oko moderiranja sadržaja. I treće, riječ je o ekosustavu kojeg potencijalno čine tri Muskove kompanije – xAI, Tesla i SpaceX – pa regulatori ne gledaju više u jednog „običnog“ pružatelja usluga, nego u sve utjecajniji konglomerat.

Indonezija, Malezija i Filipini posegnuli su za najgrubljim alatom – blokadom na razini telekomunikacijskih operatera. Ali su pokazali i spremnost na povlačenje zabrane ako dobiju opipljiva obećanja o poboljšanjima. Poruka je jasna: pristup velikim tržištima nije zagarantiran, već ovisi o dokazivim sigurnosnim pomacima. To je lekcija koja neće proći nezapaženo ni u Bruxellesu, ni u Washingtonu.

U SAD‑u je reakcija mahom pravna – kalifornijski tužitelj pokušava primijeniti postojeće propise o zaštiti djece i štetnim internetskim sadržajima. Europska unija ide putem kombinacije: Digital Services Act već postavlja stroža pravila za vrlo velike platforme poput X‑a, a EU AI Act uvodi rizikom vođen okvir za AI sustave. Indonezijski slučaj pokazuje kako izgleda situacija kada država bez posebnog zakona o AI posegne za postojećom regulativom o elektroničkim komunikacijama i javnom moralu te s globalnim igračem ispregovara uvjete.


Europski i regionalni kontekst

Za Europu, a time i za Hrvatsku, Grok je ogledni primjer za dva ključna pitanja: koliko duboko smiju države zadirati u dizajn visokorizičnih AI sustava i kada je potpuna zabrana jedina razumna opcija.

X u EU već ima status vrlo velike internetske platforme prema DSA‑u, što znači pojačane obveze upravljanja sustavnim rizicima – od dezinformacija do zaštite maloljetnika. Neovlašteni seksualizirani deepfakeovi izravno spadaju u tu kategoriju. Afera s Grokom pokazuje koliko brzo jedna nova AI funkcija može poništiti prethodni napredak u moderiranju sadržaja.

EU AI Act, čiji su temelji već dogovoreni iako se potpuna primjena još razrađuje, donosi dodatne zahtjeve za generativne modele: veću transparentnost, označavanje AI‑generiranog sadržaja i upravljanje rizičnim slučajevima upotrebe. Iako akt (prema javno dostupnim informacijama do kraja 2024.) ne propisuje izravan „crveni gumb“ za pojedine modele, pojačava ovlasti nadzornih tijela da traže dokumentaciju, procjene rizika i korektivne mjere. Indonezijski model – privremena zabrana pa povratak uz uvjete – vrlo je konkretan primjer kako bi ta ovlaštenja mogla izgledati i u praksi EU‑a.

Za Hrvatsku i zemlje u regiji tu su još dva aspekta. Prvo, članstvo u EU znači da će se pravila iz DSA‑a i AI Acta preliti i na naše tržište – od Zagreba i Splita do Ljubljane, Sarajeva i Beograda, iako neke zemlje još nisu u Uniji. Drugo, slučaj pokazuje da i srednje velike države mogu iznuditi promjene od globalnih platformi. To je važna poruka za naše regulatorne institucije poput HAKOM‑a ili AZOP‑a: nisu nužno osuđene na pasivnu ulogu promatrača.

Za lokalni startup ekosustav – od Zagreba preko Ljubljane do Beograda – u ovome se krije i prilika. Tvrtke koje se bave računalnim vidom, generativnom AI ili alatima za moderiranje sadržaja mogu graditi poslovne modele na „sigurnosti po dizajnu“. Što više država uvodi uvjetne povratke poput indonezijskog, to je veća potražnja za rješenjima koja sigurnosne mehanizme imaju ugrađene od prvog dana.


Što slijedi

Indonezijska odluka vjerojatno je tek početak duže priče. U grubim crtama mogu se zamisliti tri smjera razvoja.

  1. Optimistični scenarij. xAI ozbiljno ulaže u filtre, nadzorne timove, sustave za prijavu i uklanjanje zloporaba. Broj problematičnih sadržaja značajno pada, a indonezijski model „uvjetne slobode“ postaje referenca za druge države koje žele kombinirati strogu reakciju i tehnološko prilagođavanje.

  2. Realistični, ali neugodni scenarij. Vidljivi dio problema se smanjuje, no zloporabe se sele u zatvorene grupe i među plaćene korisnike. Žrtve se i dalje muče s uklanjanjem sadržaja, a regulatori nemaju dovoljno uvida za dokazivanje sustavne neusklađenosti. Indonezija tada mora birati između politički bolne ponovne zabrane i tihog prihvaćanja određenog stupnja štete.

  3. Geopolitički scenarij. Države diljem svijeta prepoznaju potencijal uvjetnog pristupa kao poluge moći – ne samo radi zaštite djece, nego i radi kontrole političkog govora. Pod krinkom „sigurnosti AI‑ja“ mogli bi se pojaviti zahtjevi koji u praksi znače cenzuru, nadzor i pritisak na kritične glasove.

Što bi čitatelji u Hrvatskoj i regiji trebali pratiti?

  • Hoće li xAI objaviti konkretne podatke o zloporabama Groka i učinkovitosti novih zaštita?
  • Hoće li Indonezija javno objavljivati opomene ili sankcije u slučaju budućih incidenata?
  • Kako će EU kroz DSA i AI Act pristupiti platformama koje integriraju alate poput Groka?
  • Hoće li se slični zahtjevi početi pojavljivati i u državama Zapadnog Balkana, bilo samostalno ili pod utjecajem europskih standarda?

Odgovori na ta pitanja u idućih 12 do 24 mjeseca pokazat će hoće li „AI na uvjetnoj slobodi“ postati uobičajen regulatorni alat ili tek kratkotrajni eksperiment.


Zaključak

Indonezija je izabrala srednji put: Grok nije trajno protjeran, ali je jasno stavljeno do znanja da pristup tržištu više nije bezuvjetan. Ako xAI pod tim pritiskom uspije stvarno ograničiti deepfake zloporabe, drugi će regulatori – uključujući europske – vjerojatno kopirati ovaj model. Ako ne uspije, dobit će dodatne argumente oni koji zagovaraju potpune zabrane. Ključno pitanje za nas u Europi i na Jadranu jest: koliko smo štete spremni tolerirati dok još uvijek eksperimentiramo s time kako ovakve sustave uopće obuzdati?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.