Naslov in uvod
AI‑generirana fotografija pobeglega volka iz živalskega vrta je v Južni Koreji prerasla iz spletne potegavščine v kazenski pregon z zagroženo kaznijo do petih let zapora. Zgodba zveni skoraj komično – volk kot spletna zvezda, memi, celo kriptokovanec – a v ozadju gre za prvo resno soočenje družbe s tem, kako kaznovati škodljivo uporabo generativne umetne inteligence.
V nadaljevanju povzemam, kaj se je dejansko zgodilo, zakaj je primer pomemben tudi za Evropo in Slovenijo, kam se umešča v širši trend deepfake zavajanja ter kakšne zakonodajne in tehnološke odgovore bomo potrebovali.
Kaj se je zgodilo (na kratko)
Kot poroča Ars Technica na podlagi BBC in The Guardian, je južnokorejska policija aretirala 40‑letnega moškega, ker je z orodjem umetne inteligence ustvaril lažno fotografijo pobeglega volka Neukguja na križišču v mestu Daejeon.
Neukgu, dvoletni volk iz programa ponovne naselitve volkov, je pobegnil iz živalskega vrta, potem ko si je izkopal izhod iz ograde. Oblasti so sprožile obsežno iskalno akcijo z droni, policijo, reševalci in veterinarji. Ključno vlogo so imeli posnetki prebivalcev, ki so beležili dejanske sledi volka.
Le nekaj ur po pobegu se je po spletu razširila AI‑fotografija, ki je volka "prikazovala" v urbanem okolju. Mesto je na podlagi slike prebivalcem poslalo opozorilni SMS, policija naj bi jo pokazala tudi na tiskovni konferenci, iskalne ekipe pa so preusmerile del virov. Kasneje so preiskovalci z video nadzorom in podatki o uporabi AI‑orodij izsledili avtorja slike, ki je po navedbah policije dejal, da je bilo vse "za zabavo". Grozi mu do pet let zapora ali denarna kazen.
Neukguja so po devetih dneh našli, uspavali in živega vrnili v živalski vrt. Na spletu pa je postal kultna figura z zemljevidom opažanj in celo lastnim memecoinom.
Zakaj je to pomembno
To ni zgodba o volku, temveč o trenutku, ko generativni AI iz igrače postane predmet kazenskega prava.
Moški ni ponarejal političnega govora ali gole fotografije znane osebe, temveč navidezni dokaz v tekoči akciji zaščite živali in javne varnosti. To zadevo iz abstraktne razprave o "etiki AI" prestavi v dobro znano pravno območje: oviranje dela policije, lažno naznanilo, povzročanje vznemirjanja javnosti.
V analogni obliki večina pravnih sistemov takšna dejanja že dolgo sankcionira. Kar je novo, je kombinacija hitrosti, dosega in prepričljivosti, ki jo omogočajo orodja, dostopna vsakomur z mobilnim telefonom. Da je bila ena sama slika dovolj, da je mesto poslalo izredna opozorila in policija preusmerila ekip, pove pravzaprav vse.
Prvi veliki poraženec je zaupanje. Če se izkaže, da lahko ena "zabavna" AI‑slika sproži lažni alarm, bodo ljudje resna opozorila v prihodnje morda jemali manj resno. Enako velja za zaupanje policije v posnetke državljanov: čim več energije bodo morali vlagati v preverjanje avtentičnosti, tem manj učinkovit bo odziv.
Druga težava je sorazmernost kaznovanja. Zagroženih pet let zapora se marsikomu zdi pretirano glede na to, da je volk na koncu ostal nepoškodovan. Toda brez resnega odvračilnega učinka tvegamo, da bo "igranje z AI" postalo sprejemljiv šport – vse dokler nekdo ne umre zaradi napačno usmerjenih reševalcev ali lažnega obvestila o katastrofi.
Družba bo morala zato natančneje ločiti med ustvarjalno uporabo AI (satiro, umetnostjo, memi) in dejanji, kjer umetna vsebina posega v delo institucij ali varnost ljudi in živali.
Širša slika
Primer volka iz Daejeona se odlično vklaplja v širši trend: poceni in dostopna AI‑orodja omogočajo zelo verodostojne, a popolnoma izmišljene slike in videe dogodkov v realnem času.
Politični deepfaki so že realnost – od prirejenih govorov pa do lažnih avdio posnetkov, ki se pojavijo tik pred volitvami. Med rusko invazijo na Ukrajino se je po omrežjih razširil ponarejen video ukrajinskega predsednika, ki naj bi pozival k vdaji. Takšni posnetki pogosto krožijo dovolj časa, da naredijo škodo, četudi jih platforme kasneje odstranijo.
V preteklosti so ljudje ponarejali UFO posnetke, "pošasti" ali lažne klice na pomoč. Toda AI briše prag vstopa: ni več treba obvladati Photoshopa ali montaže, zadošča nekaj klikov v spletni aplikaciji. To poveča količino potencialno zavajajoče vsebine in zniža starost ter tehnično znanje storilcev.
Tehnološka industrija se sicer odziva. Ponudniki velikih modelov dodajajo vodne žige, preverjanje izvornih podatkov in zahteve po označevanju sintetične vsebine. Družbena omrežja uvajajo oznake za "manipulirane" medije. A vse to je prostovoljno in neenotno, obenem pa ga je enostavno obiti – z uporabo odprtokodnih modelov brez oznak ali s preprostim posnetkom zaslona.
Zato je ključno spoznanje primera iz Koreje: ko AI‑ponaredek povzroči konkretno škodo ali motnjo, se pogovor iz etike preseli v kazensko pravo. Tako kot smo dobili posebne člene za spletno zalezovanje ali "swatting", bomo verjetno v naslednjih letih dobili tudi bolj jasne kazenske določbe za zlonamerne deepfake.
Evropski in slovenski pogled
Za EU je ta primer predvsem opozorilo, da regulacija platform in AI‑sistemov še ni enaka jasnim pravilom za posameznike, ki zlorabijo ta orodja.
Digital Services Act (DSA) sicer nalaga velikim platformam, da bolje obvladujejo dezinformacije in označujejo manipulirane vsebine, zlasti v kontekstu volitev in javne varnosti. Uredba o umetni inteligenci (EU AI Act) bo proizvajalcem generativne AI nalagala, da izhod označijo kot sintetičen in vodijo dnevnike o delovanju modelov. Vendar nič od tega neposredno ne določa, kdaj je uporaba AI za lažni prikaz dogodkov kaznivo dejanje.
Slovenija ima v kazenskem zakoniku že kazniva dejanja lažnega naznanila, povzročanja splošne nevarnosti in oviranja uradnih oseb. V praksi pa bo veliko odvisno od razlage sodišč: ali je deljenje AI‑slike, ki zmoti gasilce ali policijo, enako, kot če bi sami poklicali na 113 z lažno prijavo?
Za slovenske uporabnike je relevantno še nekaj: majhnost trga. Lokalni mediji in reševalne službe v veliko večji meri kot v večjih državah temeljijo na neformalnih virih in družbenih omrežjih. Če bo zaupanje v posnetke in fotografije dodatno omajano, to neposredno vpliva na učinkovitost odziva ob poplavah, požarih ali drugih nesrečah – kar smo v zadnjih letih že nekajkrat občutili.
Slovenija bi lahko tukaj celo igrala pionirsko vlogo v regiji: s smernicami za policijo in reševalce, kako preverjati sumljive digitalne vsebine, ter z jasnim dopolnilom zakonodaje, da je uporaba deepfake vsebine za motenje nujnih služb kaznivo dejanje.
Pogled naprej
Kaj lahko pričakujemo v naslednjih letih?
Prvič, niz testnih sodnih primerov. Tožilstva bodo poskušala obstoječe člene (lažno naznanilo, oviranje uradnih oseb, širjenje lažnih vesti) uporabiti tudi za AI‑vsebine. Prek pritožb in odločb višjih sodišč se bo počasi izkristaliziralo, kdaj je meja prestopljena.
Drugič, spremembo operativnih postopkov. Policija, gasilci in civilna zaščita bodo morali v protokole vključiti preverjanje izvorov slik in videa. Namesto enega viralnega posnetka bodo zahtevali več neodvisnih virov, preverili lokacijske podatke ali zahtevali originalne datoteke z metapodatki. To bo odziv upočasnilo, a zmanjšalo tveganje za lažne alarme.
Tretjič, spremembe v produktih. Kamera aplikacije, klepetalniki in AI‑orodja bodo verjetno privzeto vgrajevala oznake porekla vsebine. EU bo s svojo regulacijo ta proces pospešila, globalne platforme pa bodo funkcije zaradi enostavnosti pogosto uvedle povsod.
Za uporabnike v Sloveniji in širši regiji SEE je ključno, da si ustvarimo nove reflexe medijske pismenosti: viralen posnetek poplav, požara ali "neznane nevarne živali" v okolici naj bo vedno povod za preverjanje pri uradnih virih (Uprava za zaščito in reševanje, ARSO, policija), ne pa avtomatičen povod za paniko ali deljenje naprej.
Odprta ostajajo neprijetna vprašanja: kako razlikovati neumno potegavščino od pravega naklepa? Kdaj je kazen zgolj opozorilo in kdaj odvračilni ukrep? In kako preprečiti, da bi se pod pretvezo boja proti deepfake vsebini omejevala satira, politična parodija ali kritika oblasti?
Jasno pa je nekaj: obdobja, ko je bilo igranje z AI brez posledic, je počasi konec.
Bistvo
Primer pobeglega volka in AI‑fotografije iz Daejeona je na prvi pogled zabavna internetna anekdota, v resnici pa zgodnji opozorilni znak, kako hitro lahko sintetični mediji zmotijo nujne službe. Samo stroge kazni težave ne bodo rešile, so pa jasen signal, da družba zlonamernih deepfake vsebin ne šteje več za šalo. Slovenija in EU imata zdaj priložnost, da še pred prvo domačo "AI‑potegavščino" natančneje določita pravila igre.



