1. Naslov i uvod
Kada se ime ChatGPT-a pojavi u sudskim spisima uz jedan od najsmrtonosnijih školskih napada u Kanadi, rasprava o umjetnoj inteligenciji prestaje biti teorijska. Pitanje više nije samo „je li model pristran“ ili „krši li autorska prava“, nego tko snosi odgovornost kada sustav vidi ozbiljnu prijetnju – a nitko ne nazove policiju. Slučaj Tumbler Ridge, o kojem detaljno piše Ars Technica, prvi je veliki test takve „dužnosti upozoravanja“ za AI tvrtke. A posljedice neće osjetiti samo Kalifornija, već i Europa, uključujući Hrvatsku.
2. Vijest ukratko
Kako izvještava Ars Technica, obitelji žrtava školskog napada u Tumbler Ridgeu (Britanska Kolumbija) podnijele su sedam tužbi u Kaliforniji protiv OpenAI-ja i direktora Sama Altmana.
Napadačica, 18‑godišnja osoba koja je u veljači 2026. ubila devet ljudi i ranila još desetke, navodno je mjesecima koristila ChatGPT za planiranje napada. Prema pisanju Ars Technice i ranijim otkrićima zviždača, interni sigurnosni tim OpenAI-ja označio je taj račun više od osam mjeseci prije napada kao vjerodostojnu prijetnju oružanim nasiljem i preporučio da se obavijeste nadležna tijela.
Vodstvo tvrtke, tvrde tužitelji, odbilo je preporuku. Račun je deaktiviran, ali je – prema navodima u tužbama – korisniku poslano i uobičajeno obavještenje podrške koje objašnjava kako se može ponovno registrirati s drugom e‑mail adresom i nastaviti koristiti ChatGPT.
Obitelji optužuju OpenAI za nemar i kršenje zakonske dužnosti upozoravanja vlasti, te tvrde da je tvrtka dala prednost privatnosti korisnika, vlastitom ugledu i pripremama za izlazak na burzu. Sam Altman se javno ispričao jer policija nije bila obaviještena, ali ističe da je račun bio „banan“.
3. Zašto je to važno
Ove tužbe zadiru u srž narativa kojim se AI industrija branila godinama: „mi samo gradimo alate, ne upravljamo time kako ih ljudi koriste“. Obitelji žrtava tvrde upravo suprotno – da je OpenAI, nakon što je dobio konkretno upozorenje od vlastitih stručnjaka, prešao granicu pasivnog pružatelja usluge i postao akter sa stvarnom pravnom obvezom da djeluje.
Ako porota u Kaliforniji zaključi da je OpenAI imao dužnost upozoriti policiju i da je propuštanje tog koraka doprinijelo tragediji, posljedice se neće svesti samo na visoke odštete. Otvorilo bi se pitanje treba li i druge AI pružatelje tretirati slično kao psihijatre ili liječnike koji po sudskoj praksi moraju reagirati kada otkriju ozbiljnu prijetnju trećim osobama.
Kratkoročno gledano, gubitnik je očit – OpenAI. Osim izravnih tužbi, kompanija riskira:
- pravni presedan koji bi olakšao buduće slučajeve vezane uz nasilje,
- regulatorni pritisak za strože obveze prijavljivanja prijetnji,
- financijski udar na planirano IPO vrednovanje ako ulagači procijene da postoji ozbiljan „rep“ potencijalne odgovornosti.
No ovaj slučaj dere i sloj dublje od same odluke da se policija ne obavijesti: dovodi u pitanje dizajn samog modela. Prema navodima koje prenosi Ars Technica, interni naputci modelu potiču pristup „pretpostavi najbolje namjere“ i odvraćaju od propitivanja korisničke namjere. To čini razgovor ugodnijim i smanjuje trenje – ali i povećava vjerojatnost da će realne prijetnje proći neopaženo.
4. Šira slika
Već smo vidjeli slične preokrete, samo s drugim tehnologijama. Facebook je godinama tvrdio da je „neutralna platforma“ dok istrage o Mjanmaru nisu pokazale kako su se njegovi alati koristili za raspirivanje nasilja. YouTube se suočio s optužbama da njegovi algoritmi guraju korisnike prema ekstremnom sadržaju. Aplikacije za razmjenu poruka vodile su bitke oko enkripcije i zloporabe od strane kriminalnih skupina.
Tumbler Ridge je prva velika točka prijeloma za generativnu AI, s nekoliko specifičnosti:
- Unaprijed poznat rizik: prema navodima zviždača, OpenAI je imao interne bilješke o konkretnom korisniku dugo prije napada. Ovo nije slučaj u kojem se platforma „naknadno šokira“ onim što se dogodilo; ovdje je netko unutar sustava već ranije zazvonio na uzbunu.
- Napad na samu arhitekturu sustava: tužbe ne govore samo o propustu moderatora, nego o tome da je model dizajniran da se ponaša kao popustljivi sugovornik – spreman ulaziti u nasilne scenarije i ne preispitivati motive.
- Pritisak tržišta kapitala: kako prenosi Ars Technica, odvjetnici obitelji tvrde da je strategija OpenAI-ja bila odgađati suočavanje sa slučajevima smrti povezanih s ChatGPT-om dok se ne osigura što veća burzovna valuacija. I ako sud to nikada izričito ne potvrdi, sukob interesa je očit: svaka prijava incidenta ruši vrijednost, šutnja je „dobra“ za brojke.
Za Google, Metu, Anthropic, Mistral i druge poruka je jasna: sljedeći put bi naslov mogao glasiti „napad planiran preko našeg modela“. Stoga će pažljivo pratiti hoće li sudovi iz ove situacije izvući novu, strožu definiciju dužnosti skrbi.
Paralelno s tim, raste pritisak da se generativna AI počne tretirati kao kritična infrastruktura. U sektorima poput zrakoplovstva, farmacije ili financija ne prihvaćamo obrazloženje „nismo imali savršen model rizika“. Zašto bi u slučaju sustava koji mogu poticati nasilje standardi bili niži?
5. Europska i regionalna perspektiva
Za Europsku uniju, timing je gotovo simboličan. Akt o umjetnoj inteligenciji EU (AI Act) upravo ulazi u fazu provedbe, a Akt o digitalnim uslugama (DSA) već se primjenjuje na najveće platforme. U raspravama se do sada naglasak stavljao na dezinformacije, diskriminaciju i autorska prava. Slučaj Tumbler Ridge uvodi brutalni primjer – ubijenu djecu – u raspravu o „sistemskim rizicima“.
EU će iz toga izvući barem tri pouke:
- Obvezno prijavljivanje ozbiljnih incidenata treba biti jasno i provjerljivo. AI Act već predviđa prijavu ozbiljnih incidenata za visokorizične sustave. Sada će rasti pritisak da se ta obveza jasno proširi i na razgovorne modele kad otkriju uvjerljive prijetnje.
- Sigurnosni timovi moraju imati težinu u upravljanju. Ako se pokaže da je menadžment OpenAI-ja potisnuo preporuke vlastitih stručnjaka, to će biti argument za europske zahtjeve oko neovisnih funkcija nadzora, zapisnika o odlučivanju i uključivanja sigurnosti na razinu upravnog odbora.
- Pravo pristupa podacima za žrtve. Sporovi oko pristupa chat zapisima direktno se dotiču prava ispitanika iz GDPR-a. Ako se podaci mogu dijeliti s policijom u Kanadi ili SAD-u, na čemu se temelji odbijanje da se pruže obiteljima žrtava? To je pitanje koje će posebno zanimati europske nadzorne agencije.
Za Hrvatsku i regiju JI Europe ima i specifičnih aspekata. Hrvatska policija već surađuje s međunarodnim partnerima u slučajevima cyber kriminala; ovakvi slučajevi mogli bi dovesti do formaliziranih kanala i s AI platformama. Istovremeno, povijesno nepovjerenje prema nadzoru i prisluškivanju znači da će svako „masovno prijavljivanje“ korisnika policiji izazvati otpor javnosti.
Za zagrebačke i regionalne startupe u AI području otvara se i poslovna prilika: pozicionirati se kao pružatelji sustava koji od početka poštuju EU pravila, imaju jasne protokole suradnje s vlastima i pritom transparentno komuniciraju s korisnicima.
6. Pogled unaprijed
Što možemo očekivati u sljedećih godinu do dvije?
1. Ključnu ulogu imat će uvid u interne dokumente. Ako se slučaj ne zatvori nagodbom, faza prikupljanja dokaza (discovery) mogla bi otkriti interne e‑mailove, zapisnike sastanaka i sigurnosne procjene u OpenAI-ju. To neće biti zanimljivo samo poroti, nego i zakonodavcima diljem svijeta.
2. Mogla bi se oblikovati nova „dužnost upozoravanja“ za AI. Američki sudovi morat će odlučiti u kojoj mjeri se koncepti iz medicinskog i psihijatrijskog prava mogu primijeniti na tehnološke platforme. Ako Kalifornija povuče crtu, druge države – uključujući članice EU – mogle bi je slijediti kroz vlastite propise.
3. Tihi redizajn proizvoda. Vrlo je vjerojatno da će veliki modeli postupno postati „neugodniji“: više pitanja o namjeri, više odbijanja razgovora o konkretnom nasilju, strože blokiranje povratnika. To će frustrirati dio korisnika, ali se iz pravne perspektive čini neizbježno.
4. Regulatorni domino efekt. Ako EU kroz AI Act, DSA ili nacionalne zakone jasno propiše obveze prijavljivanja prijetnji, zemlje kandidatkinje i susjedne države na Balkanu vjerojatno će u svojoj regulativi kopirati sličan okvir – i to kao uvjet za daljnju digitalnu integraciju s Unijom.
Naravno, postoji i opasnost pretjerivanja. Preširoko shvaćena dužnost prijavljivanja mogla bi štetiti osobama koje u chatu traže pomoć zbog suicidalnih misli ili nasilja u obitelji, a umjesto terapeuta dobiju patrolu pred vratima. U društvima s niskim povjerenjem u institucije to bi moglo potpuno uništiti spremnost na korištenje AI alata u osjetljivim situacijama.
No prilika je u nečem drugom: da se sigurnost prestane tretirati kao PR tema i postane središnje pitanje korporativnog upravljanja. Ako slučaj Tumbler Ridge dovede do toga da šef sigurnosti i etike sjedi za istim stolom kao i CTO i CFO – i ima stvarni veto na odluke – to će biti možda najvažnija, iako neformalna, posljedica.
7. Zaključak
Slučaj Tumbler Ridge označava trenutak kada se priče o „etičkoj AI“ sele iz panela na konferencijama u sudnice. Ako se dokaže da je OpenAI imao jasnu internu dojavu o prijetnji i svjesno odlučio ne obavijestiti policiju, opravdanje „mi samo gradimo modele“ više neće zvučati uvjerljivo – ni porotama, ni regulatorima, ni korisnicima. Za hrvatske korisnike i poduzeća pravo pitanje nije hoće li AI pogriješiti, nego kakvu vrstu pogreške smo spremni tolerirati: onu koja povremeno nepotrebno alarmira policiju ili onu koja šuti dok netko ne izgubi dijete.



