Mali kanadski grad, globalna dilema umjetne inteligencije
Masovno ubojstvo u kanadskom gradiću Tumbler Ridge pretvorilo je apstraktne rasprave o etici umjetne inteligencije u brutalno konkretno pitanje: kada je AI tvrtka dužna upozoriti policiju na ono što korisnici upisuju u njezin sustav? Direktor OpenAI‑a Sam Altman sada se javno ispričao lokalnoj zajednici jer tvrtka nije ranije obavijestila vlasti o korisniku čiji su nasilni upiti prema ChatGPT‑u već mjesecima bili označeni i račun mu je bio blokiran.
Za korisnike u Hrvatskoj i regiji ovo više nije daleka američko‑kanadska priča. Na istoj infrastrukturi – istim modelima i istim sigurnosnim pravilima – rade i alati koje koristite u tvrtkama, školama ili kod kuće.
Vijest ukratko
Prema pisanju TechCruncha, Sam Altman poslao je pismo stanovnicima Tumbler Ridgea u kojem izražava duboko žaljenje što OpenAI nije na vrijeme obavijestio policiju o korisniku ChatGPT‑a koji je kasnije identificiran kao osumnjičenik za masovnu pucnjavu s osam mrtvih.
Wall Street Journal je ranije otkrio da je OpenAI u lipnju 2025. blokirao račun tada 18‑godišnjeg korisnika nakon što je u upitima opisivao scenarije povezane s oružanim nasiljem. Unutar tvrtke vodila se rasprava treba li slučaj proslijediti policiji, no na kraju su odlučili da to tada neće učiniti. Kako navodi TechCrunch, OpenAI je kanadske vlasti kontaktirao tek nakon napada.
Tvrtka sada najavljuje nova sigurnosna pravila: fleksibilnija mjerila kada slučaj treba proslijediti organima reda te uspostavu izravnih kontakata s kanadskom policijom. Altman navodi da je ispriku usuglasio s gradonačelnikom Tumbler Ridgea i premijerom Britanske Kolumbije. Premijer je kasnije javno poručio da je isprika potrebna, ali nipošto dovoljna. Kanadski dužnosnici razmatraju dodatnu regulaciju umjetne inteligencije, za sada bez konkretnih prijedloga.
Zašto je to važno
Slučaj Tumbler Ridge ogoljuje ključni problem doba generativne AI: ako tvrtke poput OpenAI‑a ionako pohranjuju i analiziraju korisničke upite zbog sigurnosti i razvoja proizvoda, mogu li ostati neutralne kad ti upiti jasno dotiču realno nasilje?
Tko dobiva? Policija i zakonodavci sada imaju snažan argument za uvođenje neke vrste dužnosti upozoravanja za AI pružatelje usluga. Umjesto hipotetskih scenarija, mogu pokazati na konkretan grad i konkretne žrtve. To će se koristiti u raspravama o kanadskim, američkim i europskim zakonima o umjetnoj inteligenciji i online štetnim sadržajima.
Tko gubi? Ne samo OpenAI nego i svi veliki igrači u AI‑ju. Što više sustavi poput ChatGPT‑a liče na sugovornika, to je teže uvjerljivo tvrditi da su samo »neutralna platforma«. Očekivanja javnosti se mijenjaju: ako imate dubok uvid u to što ljudi planiraju, maštaju ili čega se boje, društvo će tražiti da u određenim situacijama reagirate.
Za korisnike u Hrvatskoj i širem SEE‑u dilema je jasna: više sigurnosti kroz potencijalne AI sustave ranog upozoravanja znači i više nadzora nad onim što upisujete u sustav za koji vjerujete da je privatan. Upravo će se oko te crte – između prevencije tragedija i zaštite mentalne privatnosti – voditi žestoke politike rasprave u godinama koje dolaze.
Šira slika: AI kao senzor ponašanja, ne samo chatbot
Tehnološke platforme već su godinama pod optužbama da su ignorirale signale prije nasilnih napada: od ekstremističkih objava na Facebooku do prijenosa napada uživo. Generativna AI je sljedeća faza istog sukoba između sigurnosti i privatnosti.
Razlika je u tome što ChatGPT i slični modeli hvataju namjeru korisnika u puno finijim nijansama. Korisnik može »prošetati« model kroz cijeli scenarij: motive, logistiku, izbor mete, emocije. To je neusporedivo informativnije od jednoga komentara na društvenoj mreži.
Iz perspektive regulatora, AI tako postaje potencijalno mrežno osjetilo ponašanja. Podaci već postoje – promptovi se pohranjuju radi nadzora i treniranja modela. Pitanje više nije hoće li se bilježiti, nego tko i pod kojim uvjetima smije – ili mora – na temelju njih nešto poduzeti.
Vidimo i preklapanje tema:
- kod društvenih mreža se pokazalo da čista »neutralnost sadržaja« politički ne prolazi;
- pružatelji cloud usluga naučili su da moraju intervenirati kod očitih zloporaba infrastrukture;
- AI pružatelji sada ulaze u istu arenu, ali s privatnijim podacima i većim očekivanjima.
OpenAI je pod najvećom lupom jer je ChatGPT simbol nove ere, no slične će odluke morati donositi i Google, Meta, Anthropic, kao i europski igrači poput Mistrala ili Aleph Alphе. U jednom trenutku svatko će morati na papiru definirati: kada zovemo policiju?
Europsko i regionalno gledište: između GDPR‑a i realne sigurnosti
Za države članice EU, uključujući Hrvatsku, slučaj Tumbler Ridge je podsjetnik da pravila nisu gotova čim se donese Uredba o AI‑ju. Treba ih primijeniti na vrlo konkretne, emocionalno nabijene situacije.
GDPR dopušta prijenos podataka organima vlasti radi zaštite »vitalnih interesa« ili ispunjavanja pravnih obveza. No automatizirano pretraživanje promptova radi otkrivanja namjere počinjenja kaznenog djela i slanje tih podataka policiji, osobito u trećim državama, otvorilo bi brojna pitanja za hrvatsku i druge europske agencije za zaštitu podataka.
Akt o digitalnim uslugama (DSA) od vrlo velikih platformi traži procjenu i smanjivanje sistemskih rizika, uključujući prijetnje javnoj sigurnosti. Iako se danas fokusira na društvene mreže i trgovine, politički će pritisak rasti da se velike AI usluge tretiraju slično.
AI Act – na kojem je EU postigla politički dogovor – već uvodi stroga pravila za visokorizične AI sustave te posebne obveze za modele opće namjene. Slučaj Tumbler Ridge daje argument onima koji traže dodatna pravila oko nadzora, logiranja i suradnje s organima progona kada su u igri potencijalne prijetnje životu.
Za hrvatske tvrtke i startupe koji u Zagrebu, Splitu ili Osijeku razvijaju rješenja na vrhu OpenAI‑jevih ili drugih modela, to znači da će morati razmisliti imaju li vlastite protokole za slučajeve kad korisničko ponašanje izgleda opasno. U regiji, gdje su povijesna iskustva s nadzorom svježa, bit će posebno važno izbjeći klizanje prema preširokoj suradnji s policijom bez jasnih kriterija.
Što slijedi: od improvizacije do kodificiranih procedura
Najava OpenAI‑a o »poboljšanju sigurnosnih protokola« u praksi vjerojatno znači tri stvari – i ostali će ih igrači morati pratiti:
Jasni pragovi za eskalaciju. Umjesto ad‑hoc rasprava, tvrtke će imati pisana pravila: koliko ponavljanja nasilnih upita, koliko konkretnih detalja (lokacija, vrijeme, ciljevi) i dodatnih signala čini slučaj za službenu prijavu.
Stalni kanali s organima progona. Ono što OpenAI sada uspostavlja u Kanadi, vidjet ćemo i u drugim državama: kontaktne točke, standardizirane obrasce, definirane rokove i revizijske tragove.
Izvješća o transparentnosti. Kao što društvene mreže objavljuju statistike o uklonjenim sadržajima, AI tvrtke će biti pod pritiskom da objave koliko su korisničkih interakcija završile na dodatnoj provjeri i koliko ih je proslijeđeno vlastima.
Otvorena pitanja ostaju najteža:
- Gdje povući crtu između fikcije i realne prijetnje?
- Kako zaštititi novinare, istraživače, scenariste koji testiraju nasilne scenarije u profesionalne svrhe?
- Kako spriječiti da određene skupine budu nesrazmjerno češće prijavljivane?
Za čitatelje u Hrvatskoj važno je razumjeti da će se obrasci ponašanja OpenAI‑a i drugih globalnih igrača prelijevati i na usluge koje koristite u lokalnim bankama, telekomima ili javnoj upravi. Ako regija želi model koji bolje štiti temeljne slobode, morat će ga artikulirati kroz nacionalne strategije i aktivno sudjelovanje u europskim raspravama.
Zaključak
Tumbler Ridge je prvi veliki slučaj koji pokazuje kako bi »dužnost upozoravanja« mogla izgledati u doba generativne AI – i nitko u toj priči ne izlazi kao pobjednik. Zajednica tuguje, OpenAI se brani, a politički pritisak za strože zakone raste.
Ključno pitanje za Hrvatsku i EU jest koliko smo spremni prepustiti svoje najintimnije razgovore s AI sustavima logici sigurnosnih službi. Jesmo li spremni prihvatiti veći nadzor u nadi da ćemo možda spriječiti poneku tragediju ili tražimo stroge, transparentne granice i preuzimamo rizik da se neke prijetnje neće na vrijeme otkriti?



