AI vuk iz Daejeona: kada šala s umjetnom inteligencijom postaje kazneno djelo

24. travnja 2026.
5 min čitanja
Policijska potraga i slika vuka na ekranu mobitela kao simbol AI prijevara

Naslov i uvod

Čovjek u Južnoj Koreji suočava se s do pet godina zatvora jer je pomoću umjetne inteligencije stvorio lažnu fotografiju vuka koji je pobjegao iz zoološkog vrta. Na prvu zvuči kao tipična internetska bizarnost – simpatičan vuk, memovi, čak i memecoin – ali ovaj slučaj zapravo je rani test kako će države kažnjavati štetnu upotrebu generativne AI.

U nastavku analiziram što se točno dogodilo, zašto je priča važna i za Europu i za Hrvatsku, kako se uklapa u širi trend deepfake manipulacija te koje bi zakonodavne i tehnološke poteze regija trebala povući prije vlastitog „AI vuka“.


Vijest ukratko

Prema pisanju Ars Technice, koja se poziva na BBC i The Guardian, južnokorejska policija uhitila je 40‑godišnjeg muškarca zbog stvaranja AI-generirane slike vuka po imenu Neukgu, koji je pobjegao iz zoološkog vrta u gradu Daejeon nakon što je iskopao rupu ispod ograde.

Neukgu, star dvije godine, dio je dugoročnog programa ponovne uspostave populacije vukova u Južnoj Koreji. Njegov bijeg pokrenuo je veliku potragu: dronovi, policija, hitne službe, veterinari te građani čiji su videozapisi stvarnih opažanja pomagali usmjeravati timove.

Nekoliko sati nakon bijega internetom se počela širiti AI-fotografija koja je navodno prikazivala vuka na gradskom križanju. Vlasti su je shvatile ozbiljno: gradska uprava poslala je stanovnicima hitne SMS obavijesti, policija je sliku navodno pokazala i na press konferenciji, a dio resursa potrage preusmjeren je na pogrešno područje. Kasnijom istragom, uz pomoć nadzornih kamera i podataka o korištenju AI alata, policija je identificirala autora slike. Prema navodima, rekao je da je sve napravio „iz zabave“.

Sada mu prijeti do pet godina zatvora ili novčana kazna, ako sud utvrdi da je lažna slika ometala istragu. Neukgu je nakon devet dana pronađen, uspavan i vraćen u zoološki vrt, dok njegova internetska slava i dalje raste.


Zašto je ovo važno

Ovo nije priča o vuku, nego o trenutku kada generativna AI izlazi iz sfere „igranja“ i ulazi u sferu kaznenog prava.

Autor slike nije krivotvorio političara niti napravio eksplicitni deepfake, već „dokazni materijal“ usred akcije u kontekstu javne sigurnosti i zaštite životinja. To ga vrlo jasno približava klasičnim kaznenim djelima: lažno uzbunjivanje, ometanje službene osobe u obavljanju dužnosti, izazivanje panike. Ono što je novo jest to koliko je lako takvu manipulaciju danas proizvesti i proširiti.

Prvi gubitnik su službe spašavanja i policija. Sve više ovise o snimkama građana – kod poplava, požara, prometnih nesreća ili potrage za nestalima. Ako se u taj tok informacija ugrade uvjerljive AI-fotografije i videozapisi, operativci će morati trošiti dragocjeno vrijeme na provjeru autentičnosti. U hitnim situacijama to vrijeme može odlučivati o životu ili smrti – ili, kao u ovom slučaju, o sudbini zaštićene životinje.

Gubi i povjerenje građana. U Daejeonu su gradske vlasti na temelju lažne slike poslale uzbunu stotinama tisuća ljudi. Svaki takav incident malo po malo nagriza povjerenje u službene kanale i u samu ideju „suradnje građana“. Ako se raširi uvjerenje da bi dramatične fotografije mogle biti tek AI-šala, veći je rizik da će ljudi ignorirati stvarna upozorenja.

Otvara se i pitanje razmjernosti. Pet godina zatvora zbog „zafrkancije“ mnogima zvuči pretjerano. No bez određenog odvraćajućeg učinka riskiramo normalizaciju ponašanja koje može koštati tuđeg života – primjerice lažnih slika potresa, požara ili terorističkog napada. Zakonodavac će morati povući jasnu crtu između kreativne, satirične ili umjetničke uporabe AI i one koja konkretno narušava javnu sigurnost i rad institucija.


Šira slika

Slučaj AI vuka iz Daejeona dio je šireg trenda u kojem dostupni AI alati omogućuju stvaranje uvjerljivih, ali potpuno lažnih „dokaza“ u realnom vremenu.

Već smo vidjeli političke deepfake videe u više zemalja, lažne audio zapise koji se pojavljuju neposredno prije izbora, te manipulirane snimke u ratnim zonama. Tijekom ruske invazije na Ukrajinu kružio je, primjerice, montirani video u kojem se čini da ukrajinski predsjednik poziva na predaju. Takav sadržaj često ne mora biti online dugo da bi stvorio zbrku i sumnju.

Naravno, lažne uzbune nisu novost: generacije su se zabavljale lažnim pozivima policiji ili izmišljanjem „čudovišta“ i NLO-a. Razlika je u tome što umjetna inteligencija ruši tehničku barijeru. Više nije potrebno znati raditi u Photoshopu ili montirati video; dovoljne su rečenica-dvije upita i besplatni online alat. Time se povećava količina potencijalno obmanjujuće sadržine i širi krug onih koji je mogu stvarati.

Tehnološki sektor pokušava odgovoriti – od vodenih žigova i standarda za provjeru izvornosti sadržaja do oznaka „sintetički medij“ na društvenim mrežama. No ti su mehanizmi dobrovoljni, neujednačeni i često ih je lako zaobići: otvoreno-kodni modeli, snimke zaslona, zatvorene chat grupe.

Poruka koju ovaj korejski slučaj šalje jest da se društva neće osloniti samo na samoregulaciju industrije. Kad AI-ponareci počnu mjerljivo štetiti – usporavati potragu, širiti paniku, uništavati reputacije – u prvi plan ulazi kazneno pravo. Vjerojatno ćemo u idućim godinama vidjeti nove, specifične odredbe za zlonamjerne deepfake sadržaje, slično kao što su se prije desetak godina pojavili posebni članci za cyberbullying ili stalking.


Europski i regionalni kontekst

Za EU i za Hrvatsku ovo je koristan rani alarm. Europska unija već ima snažan regulatorni okvir – GDPR za zaštitu podataka, Digital Services Act (DSA) za odgovornost platformi, Digital Markets Act (DMA) te nadolazeći Zakon o umjetnoj inteligenciji (EU AI Act). No sve te regulative prvenstveno ciljaju na velike igrače – platforme i pružatelje AI sustava – a manje na pojedince koji te alate zloupotrebljavaju.

DSA će od velikih platformi tražiti bolje otkrivanje i označavanje manipuliranih sadržaja, osobito u kontekstu izbora i javne sigurnosti. AI Act će obvezati pružatelje generativne AI da jasno naznače da je sadržaj sintetički i da vode tehničku dokumentaciju. To može pomoći u naknadnom dokazivanju, ali neće spriječiti da netko upotrijebi otvoreni model i sliku proširi preko manjih aplikacija ili zatvorenih grupa.

Hrvatski Kazneni zakon već poznaje djela poput lažne uzbune, ometanja službene osobe, širenja lažnih i uznemirujućih vijesti. No praksa tek treba pokazati kako će sudovi gledati na situacije gdje mem sa slikom koju je generirala AI preusmjeri angažman vatrogasaca ili policije.

Za regionalno tržište (Hrvatska, Slovenija, BiH, Srbija i šira JIE) kontekst je specifičan: institucije se u krizama često oslanjaju na lokalne medije i društvene mreže, a povjerenje građana u službene kanale nije uvijek visoko. Nekoliko viralnih AI „šala“ koje dovedu do krivog uzbunjivanja moglo bi dodatno potkopati povjerenje i otežati rad službi u stvarnim poplavama, požarima ili potragama za nestalima.

Bilo bi pametno da se zemlje regije unaprijed pripreme: jasnim smjernicama za policiju i žurne službe o verificiranju digitalnih dokaza, edukacijom građana o rizicima AI sadržaja te, po potrebi, preciziranjem kaznenih odredbi za situacije gdje AI-sadržaj mjeri ometa hitne službe.


Pogled unaprijed

Što realno možemo očekivati u godinama koje dolaze?

Prvo, niz probnih kaznenih postupaka. Tužiteljstva će pokušavati postojeće kaznene odredbe primijeniti na slučajeve s AI sadržajem. Neka će suđenja završiti osudom, neka oslobađanjem ili preinačenjem presuda na višim instancama. Kroz taj proces će se polako kristalizirati granica između zaštićenog izražavanja i kažnjivog ponašanja.

Drugo, promjenu procedura. Policija, vatrogasci, HGSS i druge službe u Hrvatskoj i regiji morat će sofisticiranije vrednovati snimke građana. Vjerojatno ćemo vidjeti veći naglasak na više neovisnih izvora, provjeru metapodataka (lokacija, vrijeme), te jasnu razliku između informacija s provjerenih i neprovjerenih kanala.

Treće, prilagodbu alata. Aplikacije za kameru, komunikacijske platforme i AI servisi vjerojatno će sve više ugrađivati mehanizme provjere izvora – od kriptografskih potpisa do oznaka „snimljeno kamerom“ nasuprot „generirano AI-om“. EU regulativa će taj razvoj ubrzati, a globalne platforme će radi jednostavnosti iste funkcije često uvesti i na tržištima poput našeg.

Za građane praktična poruka je jasna: razviti nove reflekse medijske pismenosti. Ako se pojavi dramatična slika poplave, požara ili „opasne životinje“ u vašem kvartu, prvo provjerite službene kanale (Ravnateljstvo civilne zaštite, lokalna policija, meteorološke službe), umjesto da je automatski dijelite ili paničarite.

Otvorena su i neugodna pitanja: kako procijeniti razliku između glupe šale i stvarnog umišljaja? Treba li dodatno prozvati i platforme čiji algoritmi guraju ovakve sadržaje u trending? I kako spriječiti da se borba protiv deepfake sadržaja iskoristi za gušenje satire, političke karikature ili kritike vlasti?

Jedno je sigurno: vrijeme kada su AI „zafrkancije“ prolazile bez ozbiljnih posljedica polako odlazi u prošlost.


Zaključak

Slučaj AI vuka iz Daejeona možda izgleda kao simpatična internetska anegdota, ali zapravo je ozbiljno upozorenje na to kako sintetički mediji mogu poremetiti rad žurnih službi i narušiti povjerenje javnosti. Stroge kazne same po sebi neće riješiti problem, ali šalju jasnu poruku da se zlonamjerne AI manipulacije više ne tretiraju kao dječja igra. Hrvatska i susjedne zemlje sada imaju priliku unaprijed uskladiti zakone, protokole i edukaciju – prije nego što neka naša lokalna „AI šala“ završi na naslovnicama i u sudnici.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.